Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung. NTA1 - Erste Konferenz des "Netzwerks TA"
-
Veranstaltungsart:
Konferenz
- Tagungsort:Berlin, „Neues Glashaus“ im Botanischen Garten
- Datum: 24.11.04 - 26.11.04
News
21.12.2005 | Neuerscheinung in der ITAS-Reihe „Gesellschaft - Technik - Umwelt“: Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung. |
15.12.2004 | Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1) in „Technikfolgenabschätzung - Theorie und Praxis“ Heft 3, 2004 |
25.11.2004 | Politikberatung aus Deutschland, Österreich und der Schweiz organisiert sich im „Netzwerk Technikfolgenabschätzung“ |
16.11.2004 | NTA1 ausgebucht - Leider keine Anmeldungen mehr möglich |
15.11.2004 | Öffentliche Podiumsdiskussion am 24.11.2004: Neuer schöner Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und künstliche Intelligenz |
28.09.2004 | „Technik in einer fragilen Welt“ - Programm zur Konferenz NTA1 liegt vor |
07.09.2004 | Tagungsort von NTA1 ist das „Neue Glashaus“ im Botanischen Garten |
31.08.2004 | Einreichungen für TA-Nachwuchs-Meeting bei Konferenz NTA1 noch möglich |
06.08.2004 | NTA1 - „Call for Papers“ mit guter Resonanz abgeschlossen |
01.06.2004 | „Technik in einer fragilen Welt“ - NTA1: Erste Konferenz des Netzwerks TA („Call for Papers“) |
Veranstalter
Die Konferenz wird veranstaltet vom Forschungszentrum Karlsruhe, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS, Prof. A. Grunwald) in Zusammenarbeit mit der Universität Bielefeld, Institut für Wissenschafts- und Technikforschung (IWT, Prof. A. Bora) und der Universität Stuttgart, Institut für Sozialwissenschaften, Abteilung für Technik- und Umweltsoziologie (Prof. O. Renn) sowie mit Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF).
Forschungszentrum Karlsruhe |
Universität Bielefeld |
Universität Stuttgart |
Bundesministerium für Bildung und Forschung |
Programm
Mittwoch, 24. November 2004 |
|
15:00 | Konstituierung des „Netzwerks TA“ (Hotel Steglitz International) |
19:00 | Öffentliche Podiumsdiskussion „Neuer schöner Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und künstliche Intelligenz“ (Hotel Steglitz International) |
Prof. Dr. Ortwin Renn, Universität Stuttgart (Moderation) | |
Ulrike Flach, Vorsitzende des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung | |
Prof. Dr. Regine Kollek, Universität Hamburg, stellvertretende Vorsitzende des Nationalen Ethikrates | |
Prof. Dr. Dr. h.c. Carl Friedrich Gethmann, Universität Duisburg-Essen, Direktor der Europäischen Akademie zur Erforschung von Folgen wissenschaftlich-technischer Entwicklungen Bad Neuenahr-Ahrweiler, | |
Prof. em. Dr. Dr. h.c. Ludger Honnefelder, Geschäftsführender Direktor des Deutschen Referenzzentrums für Ethik in den Biowissenschaften (DRZE) | |
Donnerstag, 25. November 2004 |
|
Eröffnungsveranstaltung | |
09:00 | Begrüßung und Sitzungsleitung Prof. Dr. Armin Grunwald |
09:30 | Staatssekretär Wolf-Michael Catenhusen, BMBF „Blick hinter den Horizont - Innovations- und Technikanalyse als strategisches Instrument der Forschungspolitik“ |
10:15 | Dr. Gerhard Schmid, Vizepräsident des Europäischen Parlaments (bis Juli 2004) „Technikfolgenabschätzung am Europäischen Parlament. Erfahrungen und Perspektiven (Arbeitstitel)“ |
11:00 | Pause |
11:30 | Dr. Willi Fuchs, Direktor und geschäftsführendes Präsidialmitglied des VDI „Technikgestaltung in einer modernen Gesellschaft“ |
12:15 | Dr. Matthias Weber „ITA und ihre zukünftige Rolle für die Technologiepolitik: Mahner, Richtungsgeber oder Helfer?“ |
13:00 | Mittagspause |
14:00 | Beginn der Parallel-Sektionen |
Sektion 1: „Fragilität des Individuums“ Sitzungsleitung: Prof. Dr. Christoph Hubig |
|
14:00 | Key note: Prof. Dr. Regine Kollek „From chance to choice. Selbstverhältnis und Verantwortung im Kontext biomedizinischer Körpertechniken“ |
14:30 | Dr. Elisabeth Hildt „Moderne Neurowissenschaften und das menschliche Selbstverständnis“ |
15:00 | Dr. Thorsten Galert „Inwiefern können Eingriffe in das Gehirn die personale Identität bedrohen?“ |
15:30 | Pause |
16:00 | Dr. Günter Feuerstein „Patchwork-Medizin - Partikularisierung und Entgrenzung des Menschen in der Organtransplantation“ |
16:30 | Dr. Gisela Badura-Lotter „Der Embryo in der Statusdebatte als Symbol für die Angst vor der ökonomisch-technischen Verfügbarkeit des Menschen“ |
17:00 | Jessica Heesen / Prof. Dr. Christoph Hubig „Ubiquitous Computing als subjektzentrierte Technikvision“ |
17:30 | Pause |
Sektion 2: „Fragilität der Gesellschaft“ Sitzungsleitung: Gotthard Bechmann |
|
14:00 | Key note: Prof. Dr. Nico Stehr “Die gesellschaftliche Kontrolle neuer Erkenntnisse? Zur Wissenspolitik in demokratischen Gesellschaften“ |
14:30 | Dr. Gerd Hanekamp „Technikfolgenbeurteilung und Governance in einer 'fragilen Welt' “ |
15:00 | Dr. Stefan Böschen „Science Assessment als Wissenschaftsmediation und Wissenspolitik“ |
15:30 | Pause |
16:00 | Prof. Dr. Arnim von Gleich „Technikcharakterisierung, leitbildorientierte Technikgestaltung und integrierte Managementsysteme - Drei Ansätze zur Operationalisierung des Vorsorgeprinzips“ |
16:30 | Dr. Stephan Lingner „Umgang mit Klimarisiken. Handlungsstrategien und ihre Implikationen“ |
17:00 | Jan Peter Voss / Dr. Kornelia Konrad / Dr. Bernhard Truffer „Sustainability Foresight: Reflexive Gestaltung von Transformationsprozessen in deutschen Versorgungssystemen“ |
17:30 | Pause |
Sektion 3: „Technikgestaltung in einer fragilen Welt“ Sitzungsleitung: Dr. Michael Decker |
|
14:00 | Key note: Prof. Dr. Reinhard Hüttl „Technikgestaltung - Herausforderungen für Forschung und Politikberatung heute“ |
14:30 | Dr. Stephan Bröchler „Governance in der Technikfolgenabschätzung“ |
15:00 | Dr. Wolfgang Liebert / Prof. Dr. Wolfgang Bender / Dr. Jan Schmidt „Prospektive Gestaltung von Wissenschaft und Technik - Umgang mit Fragilität und Ambivalenz“ |
15:30 | Pause |
16:00 | Holger Schütz / Dr. Johannes Mertens / Dr. Peter Wiedemann „Vergleichende Risikobewertung. Konzepte, Probleme und Anwendungsmöglichkeiten“ |
16:30 | Christine Kolbe „Anforderungen und Chancen der Bioethik unter den veränderten Bedingungen einer digitalen Medienkultur - Eine philosophische Annäherung“ |
17:00 | Dr. Alexander Bogner „Alternative Rationalitäten? Technikbewertung durch Laien und Experten am Beispiel der Biomedizin“ |
17:30 | Pause |
Postersession mit TA-Nachwuchs-Meeting Sitzungsleitung: Prof. Dr. Alfons Bora |
|
In dieser Plenumsveranstaltung werden zunächst alle 16 Poster in einem zwei- bis dreiminütigen Beitrag vorgestellt. Im Anschluss stehen die Autorinnen und Autoren an ihren Postern für Fragen und Diskussionen zur Verfügung. Die Poster 1-5 waren Bestandteil der Ausschreibung der Konferenz und haben erfolgreich den Evaluierungsprozess durchlaufen. Die Poster 6-16 sind dem TA-Nachwuchs gewidmet - hier war die Themenwahl frei. | |
18:00 | Posterkurzvorstellungen |
Johann Cas „Privatsphäre - Ein Grundrecht ohne Schutz?“ |
|
Ulrich Glotzbach „Verantwortung wahrnehmen“ |
|
Petra Schaper-Rinkel „Neue Technologien - Neue Gestaltungsmöglichkeiten? Politische Technikgestaltung in der Nanotechnologiepolitik“ |
|
Mahshid Sotoudeh / Susanne Schidler „TA Rolle im Informationsfluss“ |
|
Thomas Runkel „Identität und Normativität. Zum Zusammenhang von Persistenz und Persönlichkeit mit Zuträglichkeit und moralischer Verbindlichkeit im Hinblick auf die gentechnische Verbesserung des Menschen“ |
|
Ricarda Drüeke „eGovernment-Prozesse und Geschlechtergerechtigkeit?“ |
|
Alexander Görsdorf „Neue Formen der Bürgerschaft in Europa? Laien und Experten im Diskurs um die Biomedizin“ |
|
Annette Henn „Messung von Nachhaltigkeit. Ein Instrument zur Beurteilung nachhaltiger Landschaftsplanung“ |
|
Andreas Köhler „Das Vorsorgeprinzip in der Informationsgesellschaft: gesellschaftliche Auswirkungen des Pervasive Computing“ |
|
Magdalena Sawicka „Nature made the food the way it is - Einfluss von Naturvorstellungen auf die Einstellung zur grünen Gentechnik in Deutschland und den USA“ |
|
Anne Katrin Schlag „Going back to our roots - The role of nature in risk perception and risk communication of GM foods“ |
|
Sonja Schmidt „Zwischen Norm und Nutzer: Entscheidungsunterstützung durch Ökobilanzen?“ |
|
Jan-Peter Voß „Innovation of Governance: Emerging governance patterns to shape the transformation of electricity systems“ |
|
Jost Wagner „Risikokonstruktionen in partizipativen Verfahren der Technikfolgenabschätzung“ |
|
Matthias Werner „Verwaltungsinformatisierung, Vernetzung und kommunale Planungsprozesse. Eine Mikro-Analyse des Electronic Government“ |
|
Tobias Woll „Die Kluft zwischen Wissen und Handeln. Politisch-administrative Hemmnisse und institutionelle Defizite bei der Realisierung von nachhaltigen Sanierungen im Bestand“ |
|
18:45 | Postersession |
20:00 | Konferenzdinner |
Freitag, 26. November 2004 |
|
09:00 | Beginn der Parallel-Sektionen |
Sektion 1: „Fragilität des Individuums“ Sitzungsleitung: Dr. Thomas Petermann |
|
09:00 | Dr. Sibylle Gaisser „Der Patient im Spiegel des technischen Wandels der Arzneimittelversorgung“ |
09:30 | Rouven Porz „Die Gendiagnostik aus der Patientensicht. Integration des 'neuen genetischen Wissens' in den persönlichen Alltag“ |
10:00 | Torsten Fleischer / Dr. Michael Decker „Converging Technologies. Verbesserung menschlicher Fähigkeiten durch emergente Techniken?“ |
10:30 | Pause |
11:00 | Dr. Johannes Simons / Dr. Bettina Rudloff „Verbraucherschutzpolitik in einer globalisierten Welt“ |
11:30 | Dr. Nicole Karafyllis „Biofakte - Die technikphilosophischen Probleme der lebenden Artefakte für die fragile Anthropologie des Menschen“ |
Sektion 2: „Fragilität der Gesellschaft“ Sitzungsleitung: Dr. Walter Peissl |
|
09:00 | Dr. Leonhard Hennen „Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Ländervergleich“ |
09:30 | Dr. Christian Berg „Gesellschaftliche Gefährdungspotentiale durch weltweite Vernetzung“ |
10:00 | Dr. Philine Warnke „Computersimulation als Instrument der Technikentwicklung - fragile oder stabile Weltkonstruktion?“ |
10:30 | Pause |
11:00 | Roman Winkler „Neue Medien als demokratiefördernde Plattformen: Online Deliberation auf dem Prüfstand“ |
11:30 | Claudia Som „Neue Informations- und Kommunikationstechniken aus Sicht des Vorsorgeprinzips“ |
Sektion 3: „Technikgestaltung in einer fragilen Welt“ Sitzungsleitung: Dr. Sergio Bellucci |
|
09:00 | Dr. Uwe Klann / W. Krewitt / J. Nitsch „Aspekte robuster politischer Technologieentscheidungen“ |
09:30 | Dr. Christoph Ewen „Politikberatung als Irritation - praktische Erfahrungen bei Technik-Konflikten“ |
10:00 | Dr. Susanne Schön / Martin Meister / Benjamin Nölting „Technik als ein Element in Konstellationen analysieren und entwickeln: Das interdisziplinäre Brückenkonzept 'Konstellationsanalyse' “ |
10:30 | Pause |
11:00 | Dr. Ingrid Schneider „Patentrecht: Technikfreisetzendes oder regulatives Recht? Die Kontroverse um die EU-Biopatentrichtlinie“ |
11:30 | Dr. Björn Ludwig „Unternehmensprozesse - Potenziale für Technikfolgenabschätzung“ |
Abschlussplenum | |
12:00 | Prof. Dr. Armin Grunwald |
13:00 | Ende |
News
Neuerscheinung in der ITAS-Reihe „Gesellschaft - Technik - Umwelt“: Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung [19.12.2005]
Das vorliegende Buch geht auf die Konferenz „Technik in einer fragilen Welt. Herausforderungen an die Technikfolgenabschätzung“ zurück, welche vom 24.-26. November 2004 in Berlin stattgefunden hat. Veranstalter waren das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Forschungszentrums Karlsruhe in Kooperation mit dem Institut für Wissenschafts- und Technikforschung der Universität Bielefeld (IWT) und dem Lehrstuhl für Technik- und Umweltsoziologie an der Universität Stuttgart.
Die Konferenz versammelte ca. 150 Wissenschaftler und Praktiker aus der Technikfolgenabschätzung (TA) und angrenzenden Gebieten. Es wurden ca. 35 Vorträge gehalten und ca. 15 Poster präsentiert. Das vorliegende Buch dokumentiert diese Konferenz, die - als die erste im Rahmen des neu gegründeten „Netzwerk TA“ - über die fachliche Dimension hinaus das Ziel verfolgte, der TA einen Impuls zu geben und die TA-Community stärker zu vernetzen.
Im Zentrum der Konferenz stand die wissenschaftliche Diskussion. Sie fand in drei Parallelsektionen und mit insgesamt über 30 Vorträgen statt, ergänzt durch eine Postersession, die sich im Wesentlichen an den Nachwuchs der Technikfolgenforschung richtete. Sowohl die Beiträge der Sektionen als auch die Poster wurden einem Peer Review Verfahren unterzogen, in dem jeder Beitrag von drei Gutachtern aus dem wissenschaftlichen Beirat der Konferenz begutachtet wurde.
Der Aufbau des Buches richtet sich im Wesentlichen nach den inhaltlichen Sektionen der Konferenz. Während die Plenumssektion durch eingeladene Vorträge aktuelle Entwicklungen auf der „Nachfrageseite“ der TA abbilden sollte und daher eher strategisch ausgerichtet war, wurde der fachliche Teil in drei Themenbereiche innerhalb des Rahmenthemas „Technik in einer fragilen Welt“ strukturiert, nämlich „Fragilität des Individuums“, „Fragilität der Gesellschaft“ und „Technikgestaltung in einer fragilen Welt“. Darüber hinaus war eine Postersektion vorgesehen, um den TA-Nachwuchs einzubinden.
Bibliographische Angaben:
Alfons Bora, Michael Decker, Armin Grunwald, Ortwin Renn (Hg.):
Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung. Berlin: edition sigma, 2005 (Gesellschaft - Technik - Umwelt, Neue Folge 7), ISBN: 3-89404-937-5, 540 Seiten, 29,90 Euro
- Näheres zur ITAS-Buchreihe "Gesellschaft - Technik - Umwelt"
- Die edition sigma im Web hier
- Persönliche homepage von Michael Decker Armin Grunwald
„Technik in einer fragilen Welt - Perspektiven der Technikfolgenabschätzung“: Bericht über die erste Konferenz des „Netzwerks TA“ (NTA1) [15.12.2004]
1 Hintergrund
Seit einiger Zeit laufen Bemühungen zu einer besseren Vernetzung und Selbstorganisation der Technikfolgenabschätzung (TA) in ihren verschiedenen Orientierungen, institutionellen Implementierungen, methodischen Orientierungen und fachlichen Schwerpunkten. Vor diesem Hintergrund ist der Aufruf zur Gründung eines „Netzwerks TA“ vom Mai dieses Jahres von Alfons Bora (Universität Bielefeld), Armin Grunwald (ITAS / TAB) und Ortwin Renn (Universität Stuttgart) zu sehen, der unterstützt durch eine Reihe von Kolleginnen und Kollegen am 24.11.2004 zur Gründung des „Netzwerk TA“ führte. Im Anschluss fand die Konferenz „Technik in einer fragilen Welt - Perspektiven der Technikfolgenabschätzung“ statt, die erste Konferenz des „Netzwerks TA“ (NTA1). Sie wurde veranstaltet von den oben genannten Einrichtungen, unterstützt vom BMBF, und fand statt im neuen Glashaus des Botanischen Gartens in Berlin-Steglitz.
TA-Konferenzen in Deutschland (und darüber hinaus) fanden bislang nur zu speziellen Themen oder Ereignissen und insgesamt eher selten statt (mit Ausnahme der 2005 bereits im fünften Jahr stattfindenden österreichischen TA-Tagungen). Beispiele sind das TA-Kolloquium in Bonn anlässlich des 65. Geburtstages von Herbert Paschen 1998 (Petermann, Coenen 1999) und der e-Society-Kongress in Berlin 2001 (Banse, Grunwald, Rader 2002). Auf europäischer Ebene versandete der Ansatz einer Konferenzserie „European Congress on Technology Assessment“ (ECTA) nach der dritten Veranstaltung 1992. Die TA-Community hat bislang keine regelmäßig stattfindende Form des Austauschs in Bezug auf Forschung und Beratungspraxis ausgebildet (ganz im Gegensatz z. B. zum Health Technology Assessment (HTA) mit regelmäßigen internationalen Konferenzen). Diese, der internen Kommunikation und der externen Sichtbarkeit entgegen stehende Situation soll durch das „Netzwerk TA“, das auch selbst Konferenzen organisieren wird, behoben werden. In diesem Sinne ist die Konferenz „Technik in einer fragilen Welt - Perspektiven der Technikfolgenabschätzung“ als Auftakt einer Reihe gedacht.
2 Zum Konferenzthema
Die Welt wird heute als hoch differenziert, aber auch als fragil und zerbrechlich wahrgenommen (Stehr 2003). Zu den wesentlichen Gründen gehören die ökonomische Globalisierung, die Auflösung kultureller Traditionen, das Denken in Netzwerken statt in Hierarchien und die Herausforderung des menschlichen Selbstverständnisses durch die Lebenswissenschaften. Wissenschaft und Technik haben an diesen Entwicklungen einen erheblichen Anteil. So sind die modernen Informations- und Kommunikationstechniken eine unverzichtbare Begleiterscheinung der Globalisierung. Vernetzte, dezentrale und „kleine“ Technologien bilden die Speerspitze der technischen Innovationen. Ihr Netzwerkcharakter steigert Komplexität und Unvorhersehbarkeit „systemischer“ Effekte. Neue Fragen an das Selbstverständnis des Menschen kommen aus aktuellen Entwicklungen in Bio-, Gen-, Nano- und Medizintechnik wie auch aus der Hirnforschung. Wissenschaft und Technik bringen bislang ungeahnte neue Möglichkeiten hervor, machen die moderne Gesellschaft aber auch verletzlich und angreifbar.
Diese Fragilität der heutigen Welt ist einerseits die Folge wissenschaftlich-technischer und damit verbundener sozialer Innovationen. Andererseits stellt sie eine wesentliche Randbedingung für die Gestaltung der Technik für die Welt von morgen dar. Aus diesen Gründen kommt der Analyse von Innovationsprozessen und der Erarbeitung und Bewertung von Handlungsoptionen für Politik und Gesellschaft eine weiter wachsende Bedeutung zu, um Felder des wünschenswerten wissenschaftlich-technischen Fortschritts zu identifizieren. Angesichts vieler Diskussionen um neue Formen politischer Governance in der „fragilen Welt“ steigen die Erwartungen an Technikfolgenabschätzung und benachbarte Felder, durch Politikberatung und Begleitung gesellschaftlicher Diskurse zur Meinungsbildung und Entscheidungsfindung in Zukunftsfragen aktiv beizutragen.
Auf der Konferenz wurden diese thesenartigen Diagnosen durch Analyse der geschilderten Entwicklungen und der Rollen und Folgen des wissenschaftlich-technischen Fortschritts genauer unter die Lupe genommen. Es wurden, vielfach basierend auf Erkenntnissen aus TA-Projekten, Strategien der Technikgestaltung unter den Rahmenbedingungen der „fragilen Welt“ aufgezeigt.
3 Die Konferenz
Die Konferenz begann mit einer öffentlichen Podiumsdiskussion zum Thema „Neuer schöner Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und Künstliche Intelligenz“ am Abend des 24. November 2004. Das Eröffnungsplenum am 25.11. war der Nachfrageseite nach TA gewidmet. Daran schloss sich der wissenschaftliche Teil der Konferenz in drei Parallelsektionen mit insgesamt über 30 Vorträgen an, die auf der Basis eines Call for Papers und eines anschließenden Begutachtungsverfahrens ausgewählt worden waren:
- Fragilität des Individuums: die Herausforderungen der „life sciences“ und der „life technologies“ für die Identität des Menschen. Inwieweit wird der Begriff der menschlichen Person selbst fragil, was bedeutet dies für die Gesellschaft und wie kann darauf reagiert werden?
- Fragilität der Gesellschaft: auf welche Weise führt Technik direkt oder indirekt zu neuartigen gesellschaftlichen Gefährdungen und steigert die Verletzlichkeit der Gesellschaft? Wie lassen sich frühzeitig Risiken abschätzen und Gegenmaßnahmen ergreifen?
- Technikgestaltung in einer fragilen Welt: auf welche Weise beeinflusst die Diagnose einer fragilen Welt die Möglichkeiten der Technikreflexion und der Technikgestaltung heute? Wie ändern sich Risikokommunikation, das Verhältnis zu Wissenschaft und Technik sowie technikbezogene Entscheidungsprozesse?
Am Abend des 25.11. fand eine Postersession mit insgesamt 16 Teilnehmern statt, in der vor allem der wissenschaftliche Nachwuchs in der TA die Gelegenheit zur Darstellung eigener Forschungsergebnisse hatte. Den Abschluss bildete am Freitag wiederum ein Plenum, in dem der Bogen zurück zum „Netzwerk TA“ und seinen zukünftigen Aktivitäten gespannt wurde.
Die Bedeutung der TA für die Politik verdeutlichten die Vorträge von Staatssekretär Wolf-Michael Catenhusen (BMBF), der die Netzwerkgründung begrüßte und dem „Netzwerk TA“ seine Unterstützung zusagte, und Dr. Gerhard Schmid (bis vor kurzem Vizepräsident des Europäischen Parlamentes), der über die Erfahrungen am Europäischen Parlament mit TA berichtete, sowie die Beteiligung von Frau Ulrike Flach (Vorsitzende des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages) an der Podiumsdiskussion. Der Direktor des VDI, Dr. Willi Fuchs, riet dazu, stärker die Wirtschaft einzubeziehen. Dr. Matthias Weber (ARC systems research, Österreich) analysierte Veränderungen der Technologiepolitik im Hinblick auf die Konsequenzen für TA.
Zur Konferenz ist eine Buchpublikation bereits in Vorbereitung, die 2005 in der ITAS-Buchreihe „Gesellschaft - Technik - Umwelt“ bei der edition sigma erscheinen wird.
4 Resonanz und Deutung
Die Resonanz auf die Ankündigung der Konferenz übertraf die kühnsten Erwartungen. Bereits der Call for Papers führte zu einer unerwartet hohen Zahl an Einreichungen, so dass trotz der Nutzung der maximal möglichen Zahl von drei Parallelsektionen über je zwei Halbtage hinweg nur ein Teil der Einreichungen - nach einem Begutachtungsverfahren - angenommen werden konnte.
Analog verhielt es sich mit dem Teilnehmerkreis. War zunächst die Veranstaltung organisatorisch auf ca. 80 Personen konzipiert, so nahmen mit ca. 150 Teilnehmern dann fast doppelt so viele teil (was auch, das sei nicht verschwiegen, zu einigen räumlichen und kulinarischen „Engpässen“ führte). Diesem in Zahlen ausgedrückten Interesse entsprach eine hoch motivierte Stimmung der Teilnehmer, die von der Netzwerkgründung bis zum Abschlussplenum durchhielt.
In den Reaktionen vieler Teilnehmer wurde häufig die große Zahl der anwesenden jüngeren Kolleginnen und Kollegen als bemerkenswert erwähnt. Auch die Vielfalt der konzeptionellen und methodischen Ansätze und die hohe Bereitschaft zum gegenseitigen Zuhören wurden als nicht selbstverständlich gewürdigt. Mehrfach wurde die Meinung geäußert, dass mit dieser Konferenz „TA“ erheblich an Fahrt gewinnen werde.
„Altlasten“ der TA-Diskussion wie Fragen „TA oder Technikgeneseforschung?“, „Chancen- oder Risikoorientierung“, „TA als Politik- oder Wirtschaftsberatung?“, „Praktische Ethik oder Sozialforschung“ wurden zwar gelegentlich diskutiert, aber ohne die entzweiende Wirkung früherer Tage zu entfalten. Der Wunsch und die Bereitschaft, mit dem „Netzwerk TA“ an einem gemeinsamen Dach zu arbeiten, unter dem sich alle Ansätze der technologiebezogenen und auf wissenschaftliche (Gesellschafts-, Wirtschafts- und Politik-)Beratung angelegten Forschung zusammenfinden können, waren deutlich stärker als alle Abgrenzungstendenzen.
5 Perspektiven
So erfolgreich und motivierend Netzwerkgründung und Konferenz verliefen, so stehen die „Mühen der Ebene“ erst noch an. Es gilt, den gesetzten Impuls zu nutzen, um daraus eine dauerhafte Stärkung von TA und verwandten Aktivitäten zu gewinnen.
Das „Netzwerk TA“ wird von einer Reihe engagierter Kolleginnen und Kollegen in Kürze mit einer erforderlichen Mindestinfrastruktur versehen. Hierzu gehören möglichst rasch der Aufbau eines Internetportals und die Etablierung einer Mailing-List. Eine weitere Arbeitsform des Netzwerks werden thematische Arbeitskreise darstellen. Weiterhin gibt es bereits Überlegungen zu Netzwerk-Workshops und zu einer nächsten Konferenz.
Die Integration so heterogener Forschungsrichtungen wie Praktische Ethik, Systemanalyse, sozial-wissenschaftliche Wissenschafts- und Technikforschung, Innovationsforschung, Risikoforschung, Innovations- und Technikanalyse, der Governance-Forschung und weiterer Felder unter dem Dach des „Netzwerks TA“ wird dann erfolgreich sein, wenn es gelingt
- trotz dieser Diversität gegenseitige Anknüpfungspunkte und Gemeinsamkeiten zu finden, und wenn
- die Diversität als Quelle der gegenseitigen Inspiration und der Kooperation gesehen wird.
Hierfür stehen die Chancen nach der Konferenz „Technik in einer fragilen Welt - Perspektiven der Technikfolgenabschätzung“ ausgezeichnet.
Literatur
Petermann, Th.; Coenen, R. (Hrsg.), 1999:
Technikfolgen-Abschätzung in Deutschland - Bilanz und Perspektiven. Frankfurt u. a.: Campus (Veröffentlichungen des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS), Bd. 6)
Banse, G.; Grunwald, A.; Rader, M. (Hrsg.), 2002:
Innovations for an e-Society. Challenges for Technology Assessment. Berlin: edition sigma (Gesellschaft - Technik - Umwelt, Neue Folge 2)
Stehr, N., 2003:
Die Zerbrechlichkeit der Gesellschaft. Frankfurt a. M.: Suhrkamp
(Armin Grunwald, Michael Decker und Ulrich Riehm)
Politikberatung aus Deutschland, Österreich und der Schweiz organisiert sich im „Netzwerk Technikfolgenabschätzung“ [25.11.2004]
Presseinformation des Forschungszentrums Karlsruhe
Mit der konstituierenden Sitzung des „Netzwerks Technikfolgenabschätzung“ am 24. November 2004 wird die Zusammenarbeit von Politik beratenden Institutionen der Technikfolgenforschung neu organisiert. Einrichtungen aus Deutschland, Österreich und der Schweiz haben sich im Rahmen der wissenschaftlichen Konferenz „Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“ in Berlin zusammengeschlossen, um den Stellenwert der Technikfolgenabschätzung in Wissenschaft und Gesellschaft zu stärken.
Hauptziel wissenschaftlich-technischer Innovationen sind neue Produkte und damit Wirtschaftswachstum. Anhand vieler Beispiele lässt sich aber belegen, dass die Angebote aus Wissenschaft und Technik nicht immer von der Gesellschaft akzeptiert werden. Das kann einerseits daran liegen, dass die Bedarfslage falsch eingeschätzt wurde, andererseits vermindern Risikobefürchtungen der Nutzer die Akzeptanz von Innovationen. Fragen nach einer nachfragegerechten Technikgestaltung oder nach dafür günstigen gesellschaftlichen Rahmenbedingungen sind ungelöst. Technikfolgenabschätzung bearbeitet diese Fragen und versetzt durch ihre Beratung die Politik in die Lage, sich gesellschaftlichen Herausforderungen wie Wettbewerbsfähigkeit oder Nachhaltigkeit zu stellen.
Die wesentlichen Einrichtungen und Akteure der Technikfolgenabschätzung aus Deutschland, Österreich und der Schweiz haben sich am 24. November 2004 zum „Netzwerk Technikfolgenabschätzung“ zusammengeschlossen. Das Netzwerk hat zum Ziel, gemeinsame Forschungs- und Beratungsaufgaben zu identifizieren, methodische Entwicklungen zu initiieren und zu begleiten, Informationen auszutauschen sowie den Stellenwert der Technikfolgenabschätzung in Wissenschaft und Gesellschaft zu stärken. Gleichzeitig dient das Netzwerk als Plattform für Kooperationen und für den Austausch von Wissensbeständen verschiedener für die Technikfolgenabschätzung relevanter Forschungsrichtungen wie Ethik, Innovationsforschung, Technik- und Wissenssoziologie, Medizin sowie der Natur- und Technikwissenschaften. Die Kontaktstelle des „Netzwerks Technikfolgenabschätzung“ wird am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Forschungszentrums Karlsruhe eingerichtet.
Die Gründung des Netzwerks ist gleichzeitig Auftakt der ersten Konferenz des Netzwerks zum Thema „Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“. Die Konferenz findet vom 24. - 26. November 2004 im Neuen Glashaus des Botanischen Gartens in Berlin mit Unterstützung des BMBF statt. Die Konferenz behandelt in drei wissenschaftlichen Sektionen die Themen „Fragilität des Individuums“, „Fragilität der Gesellschaft“ und „Technikgestaltung in einer fragilen Welt“.
Das Forschungszentrum Karlsruhe ist Mitglied der Helmholtz-Gemeinschaft, die mit ihren 15 Forschungszentren und einem Jahresbudget von rund 2,1 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands ist. Die insgesamt 24 000 Mitarbeiterinnen und Mitarbeiter der Helmholtz-Gemeinschaft forschen in den Bereichen Struktur der Materie, Erde und Umwelt, Verkehr und Weltraum, Gesundheit, Energie sowie Schlüsseltechnologien.
Joachim Hoffmann, 25. November 2004
- Zum gleichen Thema siehe auch: „Forschungsministerium fordert neue Methoden der Technikfolgenabschätzung“ - heise online vom 27.11.2004 hier
NTA1 ausgebucht - Leider keine Anmeldungen mehr möglich [16.11.2004]
Die erste Tagung des Netzwerks TA„Technik in einer fragilen Welt - Die Rolle der Technikfolgenabschätzung“ am 24.-26.11.2004 in Berlin hat nicht nur bei den Vortragsanmeldungen einen großen Zuspruch erfahren, sondern nun auch bei den Teilnehmeranmeldungen. Aufgrund der Raumverhältnisse im Neuen Glashaus können deshalb keine weiteren Anmeldungen mehr entgegengenommen werden. Für die öffentliche Podiumsdiskussion am Mittwoch, 24.11.2004, 19 Uhr, im Hotel Steglitz stehen dagegen genügend Plätze zur Verfügung. Eine Teilnahme hieran ist ohne Anmeldung möglich.
Öffentliche Podiumsdiskussion im Rahmen der NTA1, Berlin, 24.11.2004: Neuer schöner Mensch? Möglichkeiten und Grenzen der Menschengestaltung durch Gentechnik und künstliche Intelligenz [15.11.2004]
Die systematische Veränderung von genetischen Informationen im menschlichen Embryo, die Verbindung von Nanotechnologie und Informationstechnik für Bioimplantate sowie die Simulierung menschlicher Urteilskraft durch Softwaresysteme der künstlichen Intelligenz stellen die Frage nach der Identität des Menschen und seiner Einzigartigkeit. Welche Rolle die Technikfolgenabschätzung (TA) in diesem verminten Feld spielen kann, ist Thema einer Podiumsdiskussion zwischen Vertretern der wissenschaftlichen TA und politischen Entscheidungsträgern. Das Spannungsverhältnis von TA, Ethik und Politik soll vor allem am Beispiel der „Techniken zur Verbesserung des Menschen“ diskutiert werden.
Es diskutieren unter der Moderation von Prof. Dr. Ortwin Renn, Universität Stuttgart, die Vorsitzende des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung Ulrike Flach, die stellvertretende Vorsitzende des Nationalen Ethikrates Prof. Dr. Regine Kollek, Universität Hamburg, der Direktor der Europäischen Akademie zur Erforschung von Folgen wissenschaftlich-technischer Entwicklungen Bad Neuenahr-Ahrweiler Prof. Dr. Dr. h.c. Carl Friedrich Gethmann, Universität Duisburg-Essen, sowie der Geschäftsführende Direktor des Deutschen Referenzzentrums für Ethik in den Biowissenschaften (DRZE) Prof. em. Dr. Dr. h.c. Ludger Honnefelder.
Diese Podiumsdiskussion ist die Auftaktveranstaltung der ersten Tagung des „Netzwerks TA“ (NTA1) mit dem Titel „Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“. Das Thema der Podiumsdiskussion wird auf der Tagung fortgeführt mit Vorträgen zum Thema „Fragilität des Individuums“.
Die Veranstaltung ist öffentlich und richtet sich an ein breites Publikum. Sie findet statt am 24.11.2004, 19:00 Uhr im Best Western Hotel Steglitz International, Albrechtstr. 2, D-12165 Berlin.
- Informationen zum „Hotel Steglitz International“ hier
- Weitere Informationen zur Tagung NTA1
„Technik in einer fragilen Welt“ - Programm zur Konferenz NTA1 liegt vor [28.09.2004]
Das detaillierte Programm der ersten Konferenz des „Netzwerks TA“ (NTA1), das vom 24.-26.11.2004 in Berlin stattfindet, liegt vor. Nach dem erfolgreichen Abschluss des „Call for papers“ mit über 50 Einreichungen wurden 33 Beiträge durch den wissenschaftlichen Beirat ausgewählt, die den jeweiligen Sektionen zugeordnet sind. Zum Eröffnungsplenum sprechen u. a. der Staatssekretär im Bundesministerium für Bildung und Forschung Wolf-Michael Catenhusen, Dr. Gerhard Schmid, vormaliger Vizepräsident des Europäischen Parlaments und Dr. Willi Fuchs, Direktor und geschäftsführendes Präsidialmitglied des VDI.
Die einleitenden Vorträge zu den drei Sektionen der Konferenz werden gehalten von Prof. Dr. Regine Kollek: „From chance to choice. Selbstverhältnis und Verantwortung im Kontext biomedizinischer Körpertechniken“, Prof. Dr. Nico Stehr: „Die gesellschaftliche Kontrolle neuer Erkenntnisse? Zur Wissenspolitik in demokratischen Gesellschaften“ und Prof. Dr. Reinhard Hüttl: „Technikgestaltung - Herausforderungen für Forschung und Politikberatung heute“.
Anmeldungen zur Teilnahme an der Konferenz können ab sofort online über die Webseite von NTA1 getätigt werden.
Im Tagungshotel „Hotel Steglitz International“ können Tagungsteilnehmer Zimmer zu einem Sonderpreis buchen (Stichwort: NTA1). Die beiden Veranstaltungen am Mittwoch, 24.11.2004 (konstituierende Sitzung des „Netzwerks TA“ und öffentliche Podiumsdiskussion zum Thema „Verbesserung des Menschen durch Technik?“) finden im Hotel Steglitz statt.
Die Plenums- und Sektionsveranstaltungen am 25./26.11.2004 finden statt im „Neuen Glashaus“ im Botanischen Garten.
- Programm
- Anmeldung
- Informationen zum Tagungshotel „Hotel Steglitz International“ hier
- Informationen zum Veranstaltungsort „Neues Glashaus“ hier
Tagungsort von NTA1 ist das „Neue Glashaus“ im Botanischen Garten [07.09.2004]
Im schönsten Garten Berlins, dem sich über 43 ha Fläche erstreckenden Botanischen Garten in Berlin-Dahlem, werden nicht nur 20.000 verschiedene Pflanzenarten kultiviert, sondern befindet sich auch das „Neue Glashaus“. Hier findet die erste Tagung des „Netzwerks TA“ (NTA1) „Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“ vom 24. - 26. November 2004 statt.
Achtung! Die Veranstaltungen am Mittwoch, 24.11.2004 finden alle im Tagungshotel Hotel Steglitz International statt. Hier steht auch ein Kontingent Zimmer zum Sonderpreis für Tagungsteilnehmer zur Verfügung.
- Weitere Informationen zum „Neuen Glashaus“ hier
- Informationen zum „Hotel Steglitz International“ hier
- Weitere Informationen zur Tagung NTA1
Einreichungen für TA-Nachwuchs-Meeting bei Konferenz NTA1 noch möglich [31.08.2004]
Die Konferenz NTA1 (24.-26.11.2004, Berlin) hat sich zum Ziel gesetzt, den wissenschaftlichen Nachwuchs besonders zu fördern und führt deshalb eine Postersession mit jungen Wissenschaftlerinnen und Wissenschaftlern (Diplomanden, Doktoranden) durch, die allgemein auf dem Gebiet der Technikfolgenabschätzung oder speziell zum Thema der Konferenz „Technik in einer fragilen Welt“ arbeiten.
Für die Postersession des TA-Nachwuchs-Meetings am 25.11.2004 können noch Beiträge eingereicht werden. Ein Abstract mit max. 500 Worten richten Sie bitte bis spätestens 15.10.2004 an die E-Mail-Adresse NTA1. ∂ itas fzk de
- Die Website der Konferenz
NTA1 - „Call for Papers“ mit guter Resonanz abgeschlossen [06.08.2004]
Am 22. Juli 2004 ist die Frist zur Einreichung von Beiträgen zur „NTA1“, der ersten Konferenz des Netzwerks TA, abgelaufen. Auf den „Call for Papers“ gingen in relativ kurzer Zeit über 50 Beiträge ein. Die eingereichten Abstracts wurden nun dem wissenschaftlichen Beirat zur Beurteilung vorgelegt. Anfang September werden dann die Autorinnen und Autoren über Aufnahme oder Ablehnung informiert und das endgültige Programm veröffentlicht.
Die Tagung NTA1 findet am 24. bis 26.11.2004 in Berlin statt und steht unter dem Leitthema „Technik in einer fragilen Welt“. Sie wird veranstaltet vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Forschungszentrums Karlsruhe (Prof. A. Grunwald) in Zusammenarbeit mit den Universitäten Bielefeld (Prof. A. Bora) und Stuttgart (Prof. O. Renn) sowie mit Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF).
Die folgenden Programmbestandteile stehen bereits fest:
- die konstituierende Versammlung des Netzwerks TA am 24.11.2004;
- der Grundsatzvortrag von BMBF-Staatssekretär Wolf-Michael Catenhusen am Vormittag des 25.11.2004;
- eingeladene Vorträge von:
Prof. Dr. Regine Kollek, Universität Hamburg, stellvertretende Vorsitzende des Nationalen Ethikrats;
Prof. Dr. Nico Stehr, Zeppelin University GmbH Friedrichshafen;
Prof. Dr. Dr. h.c. Reinhard Hüttl, Technische Universität Cottbus, Vorstandsmitglied acatech; - drei parallele Sektionssitzungen zu den Themen:
- Fragilität des Individuums,
- Fragilität der Gesellschaft,
- Technikgestaltung in einer fragilen Welt;
- ein TA-Nachwuchs-Meeting am frühen Abend des 25.11.2004 als Postersession.
Alle Anfragen zur Konferenz richten Sie bitte an die E-Mail-Adresse: NTA1 ∂ itas fzk de
„Technik in einer fragilen Welt“ - Erste Konferenz des Netzwerks TA (NTA1) [01.06.2004]
Mit Unterstützung des BMBF und in Zusammenarbeit mit der Universität Bielefeld (Prof. Bora) und der Universität Stuttgart (Prof. Renn) veranstaltet ITAS die erste Konferenz des Netzwerks TA (NTA1) vom 24. bis 26. November 2004 in Berlin. Die Konferenz steht unter dem Leitthema „Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“. Der Call for papers ist nun veröffentlicht. Abstracts für Beiträge können bis zum 15. Juli 2004 eingereicht werden. Staatssekretär Wolf-Michael Catenhusen wird im Rahmen der Konferenz am Vormittag des 25. November 2004 einen Grundsatzvortrag halten. Außerdem ist zur Förderung des wissenschaftlichen Nachwuchses auf dem Gebiet der Technikfolgenabschätzung eine Postersession mit jungen Wissenschaftlern (Diplomanden, Doktoranden) geplant.
NTA1 - Erste Konferenz des Netzwerks TA
„Technik in einer fragilen Welt. Die Rolle der Technikfolgenabschätzung“
Berlin, 24. - 26. November 2004
Einreichung von Abstracts bis 15. Juli 2004.
Die Einreichungsfrist wurde um eine Woche auf den 22. Juli 2004 verlängert.
- First Announcement and Call for Papers
- Kontakt, Informationen, Einreichung, Anmeldung an: NTA1. ∂ itas fzk de
Auf dieser Konferenz wird sich auch das von Prof. Dr. A. Bora, Prof. Dr. A. Grunwald und Prof. Dr. O. Renn initiierte „Netzwerk TA“ konstituieren. Das „Netzwerk TA“ ist ein Zusammenschluss von Wissenschaftlern, Experten und Praktikern im breit verstandenen Themenfeld „Technikfolgenabschätzung“. Das „Netzwerk TA“ ist als Plattform für gemeinsame Kooperationen und Aktionen sowie als Drehscheibe für den Austausch von Wissensbeständen verschiedener für die TA relevanter Forschungsrichtungen geplant. Es dient dem Informationsaustausch, gemeinsamen Forschungs- und Beratungsaufgaben und methodischen Entwicklungen. Der Stellenwert der TA in Wissenschaft und Gesellschaft soll über das Netzwerk TA gestärkt werden.
- Aufruf zur Gründung eines „Netzwerks TA“
- Interessenbekundungen zur Mitarbeit am „Netzwerk TA“ an: NetzwerkTA. ∂ itas fzk de
Moderne Neurowissenschaften und das menschliche Selbstverständnis
Abstract
In den letzten Jahren konnten durch Fortschritte in den Neuro- und Kognitionswissenschaften vielfältige Erkenntnisse über das menschliche Gehirn und seine Funktionen gewonnen werden. Hiervon ausgehend wird eine Vielzahl von Anwendungsmöglichkeiten im medizinischen Bereich eröffnet, welche neben verschiedenen diagnostischen Verfahren insbesondere Ansätze umfasst, im Rahmen derer ein gezieltes modifizierendes Eingreifen in die Funktionsweise des Gehirns ermöglicht wird.
So werden im medizinisch-therapeutischen Umfeld verschiedene Formen der gezielten, zunehmend selektiven Beeinflussung der Hirnfunktionen bereits derzeit realisiert bzw. es zeichnen sich entsprechende Entwicklungen für die Zukunft ab. Hierzu gehört das Durchführen gezielter operativer Eingriffe in das Gehirn, der Einsatz neuronaler Stammzellen zur Transplantation oder das Entwickeln technologischer Verfahren unter Beteiligung direkter Gehirn-Computer-Schnittstellen.
Sowohl die erzielten Kenntnisse über das menschliche Gehirn und seine Funktionsweise als auch die neu entwickelten bzw. sich für die Zukunft abzeichnenden medizinisch-technischen Verfahren und Eingriffsmöglichkeiten in das Gehirn besitzen vielfältige Auswirkungen, welche sich keineswegs nur auf medizinisch-naturwissenschaftliche Zusammenhänge beschränken lassen. Vielmehr betreffen sie in grundlegender Weise das menschliche Selbstverständnis, und hiermit einhergehend allgemeine Fragen des menschlichen Zusammenlebens - handelt es sich doch beim Gehirn um das für die Identität eines Menschen zentrale Organ.
Im Rahmen des Beitrags werden Implikationen medizinisch-technischer Eingriffe in das menschliche Gehirn diskutiert, wobei der Schwerpunkt auf dem Einsatz neuronaler Stammzellen für Transplantationszwecke liegt. Hierbei werden die der medizinisch-naturwissenschaftlichen Entwicklung zugrunde liegenden Zielvorstellungen thematisiert und die zum Erreichen der angestrebten Ziele erforderlichen Mittel sowie die für die individuelle Person einzugehenden Risiken untersucht.
Kontakt
Dr. Elisabeth Hildt
Universität Tübingen
Lehrstuhl für Ethik in den Biowissenschaften
Wilhelmstr. 19
72074 Tübingen
Inwiefern können Eingriffe in das Gehirn die personale Identität bedrohen?
Abstract
Der rasante Erkenntnisgewinn innerhalb der Neurowissenschaften hat in den letzten Jahren die Entwicklung einer Reihe von neuen Therapieansätzen für neurologische Leiden ermöglicht. Beispielsweise versucht man die Parkinson-Erkrankung durch den Einsatz neuro-bionischer Implantate (Deep Brain Stimulation - „Hirnschrittmacher“) oder durch Transplantation fötalen Hirngewebes zu behandeln. Freilich sind solche Eingriffe am Gehirn nicht unumstritten. In der öffentlichen Debatte über derartige Maßnahmen wird häufig die Sorge geäußert, sie könnten die Persönlichkeit von Patienten so tiefgreifend verändern, dass deren personale Identität auf dem Spiel stehe. Bevor jedoch untersucht werden kann, ob diese Bedenken zu Recht bestehen, muss zunächst ein Einvernehmen darüber hergestellt werden, was genau unter einer Gefährdung der personalen Identität zu verstehen ist. Mit dem geplanten Vortrag soll ein Beitrag zu dieser begrifflichen Klärungsarbeit geleistet werden, auch wenn selbstredend keine erschöpfende Behandlung der mit dem Identitätsbegriff verbundenen Rätsel in Aussicht gestellt werden kann.
Unter anderem soll auf folgende Punkte eingegangen werden:
- A priori ist es nicht möglich, von der Art oder dem Ausmaß eines Eingriffs in das Gehirn darauf zu schließen, wie gravierend dessen Folgen für die Persönlichkeitsstruktur oder Identität desjenigen sein mögen, an dem er vorgenommen wird. Es wird zu diskutieren sein, ob sich unter Bezugnahme auf den Körper einer Person überhaupt Kriterien für die Wahrung oder Verletzung ihrer Identität formulieren lassen.
- Fest steht, dass die neuen Interventionsmöglichkeiten Einfluss auf Persönlichkeitsmerkmale nehmen können. Regelrecht zum Therapieziel wird eine Änderung der Persönlichkeit beispielsweise dann, wenn Deep Brain Stimulation zur Behandlung schwerer Zwangsneurosen eingesetzt wird. Fraglich ist zum einen, welche Eigenschaften einer Person sich in welcher Weise verändern können, ohne dass ihre personale Identität angetastet wird. Zu fragen ist zum anderen, ob jeder Eingriff in die personale Identität per se abzulehnen ist.
- Sowohl die Diagnose eines Identitätsbruchs als auch seine Bewertung können unterschiedlich ausfallen, je nachdem, ob sie aus der Perspektive des Betroffenen oder aus der Beobachterperspektive vorgenommen werden („Der Eingriff war ein voller Erfolg - ich fühle mich seitdem wie ein neuer Mensch!“ versus „Der Eingriff hat überhaupt nichts gebracht - er ist immer noch ganz der Alte!“). Es muss daher das Verhältnis der beiden Beurteilungsperspektiven zueinander geklärt werden.
Kontakt
Dr. des. Thorsten Galert, M.A.
Europäische Akademie zur Erforschung von Folgen
wissenschaftlich-technischer Entwicklungen Bad Neuenahr-Ahrweiler GmbH
Wilhelmstr. 56
53474 Bad Neuenahr-Ahrweiler
Tel.: 02641-973307
E-Mail: thorsten.galert∂dlr.de
Patchwork-Medizin. Partikularisierung und Entgrenzung des Menschen in der Organtransplantation
Abstract
Während der letzten Jahrzehnte ist die Organtransplantation zu einem medizinischen Routineverfahren und selbst in der öffentlichen Wahrnehmung zu einem Stück Normalität geworden. Gewichen sind damit auch die Faszination und die vielfältigen Ängste, die ursprünglich noch von der Kombination menschlicher Körper und der scheinbaren Auflösung personaler Grenzen ausgingen. Tatsächlich bot die Organtransplantation reichlich Raum für Phantasien. Sie aktivierte soziokulturell tief verwurzelte Empfindungen und Empfindlichkeiten, meist verbunden mit unbehaglichen Projektionen einer Grenzüberschreitung: der Ausschlachtung des Körpers, der Einverleibung des Anderen, der inneren Okkupation durch das geheimnisvolle und feindselige Fremde, der Vermischung von Persönlichkeitseigenschaften. Diese Mystifizierung von Körperteilen ist weitgehend technischen Wahrnehmungsmustern gewichen.
In mancher Hinsicht konstituierte die OT tatsächlich einen Bruch im Selbstbild des Menschen. Man könnte von einer Entzauberung des menschlichen Körpers, einem Abwurf von Gefühls- und Bedeutungsballast sprechen. Auf der anderen Seite liegt die Organtransplantation in der Kontinuität einer Entwicklung, der das menschliche Individuum seitens der Medizin, vor allem aber auch in der Gesellschaft ausgesetzt ist. Moderne Medizin ist in ihrem Kern auf partikulare Wahrnehmungen fixiert: auf Organfunktionen, auf molekulare Faktoren. Bezogen auf den Körper tritt der Mensch als eine Art „Einzelteil-Ganzheit“ (Theweleit) in Erscheinung. Wenn auch nicht frei konstruierbar, so ist er - zumindest gedanklich - rekonstruierbar / rekombinierbar geworden. Und er ist dies nicht nur als eine Art lebendes Artefakt, sondern auch als Teil einer „kannibalistischen Ordnung“, die weder der Medizin, noch der modernen Gesellschaft wesensfremd war und ist.
Die Einzelteil-Ganzheit des Körpers, wie sie sich exemplarisch in der Organtransplantation zeigt, bleibt dabei nicht auf den Körper begrenzt, sondern ergreift das gesamte Individuum. Mit dem Auseinanderfallen von Körper und Subjekt haben sich auch die Tore zur Selbstinstrumentalisierung etwas weiter geöffnet hat. Dies allerdings spricht nicht unbedingt für einen zwingenden Siegeszug der „Gouvernementalität“. Ob sich eine „Mikrophysik der Biomacht“ etabliert, die eine neue Klammer für die Integration des Individuums und der Gesellschaft bietet, oder ob sich einfach nur ein summarisches Selbst herausbildet, das orientierungslos situative Anpassungsleistungen vollzieht, darf als offene Frage betrachtet werden. Vielleicht ist nicht die mangelnde Integrationsfähigkeit des Individuums, die Bedrohung seiner Einheit und Konsistenz das eigentliche Problem, sondern die illusionäre Engführung und Zentrierung der menschlichen Existenz auf Aspekte der Persönlichkeit und Personalität. Gerade im Kontext der Organtransplantation sind diese Begriffe, ihre Gleichsetzung mit dem menschlichen Leben, zu einer Ressource geworden, die Legitimität des Zugriffs auf menschliche Organe „hirntoter Spender“ immer weiter in den Zustand des Lebens hinein zu verlagern.
Für das menschliche Leben und für das Überleben in der Gesellschaft könnte sich die Idee der Person also durchaus als eine Idee erweisen, die im wirklichen Leben eines Menschen nicht mehr besonders gut funktioniert, für den Einzelnen vielleicht sogar kontraproduktiv geworden ist, obwohl sie zugleich als juristische Fiktion nicht nur eine neue Ruhestätte gefunden hat, sondern dabei geradezu eine neue Blütezeit erlebt.
Kontakt
PD Dr. Günter Feuerstein
Universität Hamburg
FSP Biotechnik, Gesellschaft und Umwelt, FG Medizin/Neurobiologie
Falkenried 94
D-20251 Hamburg
Tel.: +49 (0) 40 / 42803 - 6314
Fax: +49 (0) 40 / 42803 - 6315
Sekr.: +49 (0) 40 / 42803 - 6312
E-Mail: feuerstein∂uni-hamburg.de
Der Embryo in der Statusdebatte als ein Symbol für die Angst vor der ökonomisch-technischen Verfügbarkeit des Menschen
Abstract
Im Rahmen der Debatte um die Verwendung menschlicher Embryonen zu Forschungszwecken geht es in der Regel darum, der Entität 'Embryo' einen moralischen Status zu- oder abzusprechen. Von diesem Status hängt dann die Bewertung wissenschaftlich-technischer Praxis im Umgang mit diesen Entitäten ab. Grob unterschieden werden können dabei drei Positionen: Die Zuschreibung eines vollen moralischen Status vom Moment der Zygotenbildung ab, welcher jegliche Forschung an Embryonen verbietet; die Zuschreibung eines abgestuften moralischen Status, der sich mit zunehmender Entwicklung des Embryos in Richtung der vollständigen Anerkennung als Moralobjekt auswächst und somit Forschung nur bedingt zulässt und die Verneinung eines moralischen Status für Embryonen bis zu einem bestimmten Entwicklungsstadium, welche in der Konsequenz die vollständige Freigabe der Forschung an Embryonen vor diesem Stadium zur Folge hat.
Deutlich weniger intensiv wird hingegen die Frage thematisiert, was es eigentlich ist, das den Embryo zu einer so umstrittenen Entität macht bzw. den Umgang mit ihm ethisch überhaupt reflexionsbedürftig erscheinen lässt. Analog zur obigen Dreigliederung wird hier meist die Würde des Menschen zum Kriterium gemacht, die als voll, abgestuft oder aber gar nicht auf den Embryo zuschreibbar angesehen wird und dementsprechend den moralischen Status konstitutiert.
Den Standpunkten gemein ist die Klassifikation des Embryos als eigenständige Entität, der gegenüber wir aufgrund bestimmter vorhandener oder nicht vorhandener Eigenschaften zu bestimmter Rücksicht verpflichtet sind oder nicht. Die ethische Reflexion ist also stets auf eine eigenständige Entität und den handelnden Umgang mit ihr bezogen, nicht aber auf die Frage, was das Phänomen „Embryonenschutzdebatte“ für affektive Ursachen hat und in welchem Sinne hier eine Stellvertreterdebatte für ein generelleres Problem - das der ökonomisch-technischen Zugreifbarkeit auf den Menschen überhaupt - geführt wird. Anders formuliert: Die Fixierung auf die Entität Embryo rückt aus dem Blick, dass es implizit um die Vermessung menschlicher Selbstverständnisse und daran anschließende Identitätsvorstellungen geht, welche sich in der Rede vom Embryo kristallisieren. Damit gewinnt die Auseinandersetzung um die Forschung an Embryonen eine grundsätzliche, auf den wissenschaftlich-technischen Zugriff auf den Menschen insgesamt ausgreifende, Dimension. Es erscheint daher sinnvoll, die Richtung der Untersuchungen eher auf die Ängste und Visionen zu richten, die mit der Vorstellung einer ökonomisch-technischen Verfügbarkeit des Menschen (vermittelt über die Verfügbarkeit seines Körpers) verbunden sind.
Der Vortrag wird vor diesem Hintergrund die Frage, um die es im Kontext der Statusdebatte geht („Was dürfen wir mit x tun“) in die Frage „Was für Menschen wollen wir sein“ transformieren und aufzeigen, welche impliziten Antworten auf diese Frage in den unterschiedlichen Ansätzen der Embryonenschutzdebatte gegeben werden.
Kontakt
Dr. Gisela Badura-Lotter
Interfakultäres Zentrum für Ethik in den Wissenschaften
Universität Tübingen
Ubiquitous Computing als subjektzentrierte Technikvision
Abstract
Unter den Begriff Ubiquitous Computing (auch Pervasive Computing oder Ambient Intelligence) fallen solche Entwicklungen im Bereich der Informations- und Kommunikationstechnik, die sich die Schaffung einer „intelligenten“ Umgebung zur Aufgabe gestellt haben. Durch Integration in die Alltagsgegenstände soll eine allgegenwärtige Computertechnik unaufdringlich und unsichtbar den Menschen bei seinen Tätigkeiten unterstützen und von Routineaufgaben entlasten.
Der geplante Beitrag soll zeigen, inwiefern neue Leitbilder der Informationstechnik verschiedenen Auffassungen über die Konstituierung der menschlichen Identität korrespondieren. Es wird darauf abgehoben, inwiefern moderne Technologien wie die life sciences oder die Informationstechnik die Integrität der menschlichen Identität nicht nur explizit in Frage stellen, sondern gleichzeitig auch als gleichsam in Technik abgesunkene geistesgeschichtlich problematisierte Konzepte von Subjektivität zu deuten sind.
In der neuzeitlichen Philosophie rückten insbesondere solche Entwürfe von Subjektivität in den Blick, die Subjektivität und Ich-Identität aus den Wechselverhältnissen zwischen dem Individuum und seinen verschiedenen Kontexten begründeten. Mit dem aufgeklärten Denken wurde zwar das Individuum, sein Vermögen zur Selbstbestimmung und seine Formen der erkennenden Welterzeugung Bezugspunkt vieler philosophischer Theorien, gleichzeitig wurde aber die Stellung des Subjekts durch rationalitätskritischer Ansätze relativiert. Gemeinsam ist vielen Entwürfen die Betonung der konstitutionellen Abhängigkeit des Subjekts von strukturellen und wandelbaren Komponenten und die implizite Aufwertung der materialen Umgebung als Bestandteil der menschlichen Identität. Als Kritik an der Vorstellung vom identischen und rationalen Subjekt formulierte schließlich die so genannte Postmoderne das Konzept einer ausgebreiteten Subjektivität, die sich nicht durch eine Entgegensetzung von Subjekt und Objekt, sondern vielmehr durch ihre Vermitteltheit konstituierte (vgl. z. B. G. Deleuze, D. Haraway, M. Foucault).
Das Ubiquitous Computing (UbiComp) reagiert auf zwei, teils widersprüchliche Strömungen innerhalb des modernen Subjektverständnisses:
- Die kontextuelle und die dezentrierte Verfasstheit von Subjektivität in philosophischer Perspektive und
- Die ideologische Aufwertung des partikularen Individuums als scheinbarer Ausdruck der Subjektkonzeption der Aufklärung im gesellschaftspolitischen Kontext.
Zu 1. Die Hypothese einer Konstituierung des Subjekts über sein Außen wurde mit der Etablierung des Internet auch auf die elektronischen Datennetzwerke übertragen. Dazu gehören zum Beispiel Ansätze zur Übertragung der menschlichen Vernunftvermögen an das Internet, die Idee einer Verwirklichung von Intersubjektivität durch die Informationstechnik oder die Annahme einer Repräsentation des modernen, dezentrierten Bewusstseins durch den Hypertext. Das UbiComp vervollständigt nun diese Entwicklung, indem es die im Laufe der Kulturgeschichte ständig ausdifferenzierten medialen Interaktionswelten auf den Bereich der gegenständlichen Umgebung ausweitet. Nicholas Negroponte bezeichnete in Bezug auf eine allgegenwärtige Computertechnik die Welt als „ausgefaltetes Gehirn“. Eine Vielzahl von Mikroprozessoren und Sensoren sorgt nun auch für eine weitgehende Medialisierung unserer dinglichen Umgebung. Pointiert ausgedrückt kann man sagen, dass die Umgebung durch das Ubiquitous Computing selbst Programm eines neuen Mediums wird. Über diese quasi natürliche Verbindung von objektiver Welt und informationstechnischer Anwendung können analytisch und ethisch bedeutsame Unterscheidungen jedoch leicht unkenntlich werden wie beispielsweise die zwischen natürlichen, lebendigen beziehungsweise spontan erzeugten Umwelten einerseits und einer künstlichen, absichtsvoll oder subjektiv vorbestimmten Lebenswelt andererseits.
Zu 2. In den Szenarien zum Ubiquitous Computing wird die Individualität der Nutzerinnen und Nutzer in besonderer Weise hervorgehoben. In Leitvisionen wird hierfür der Begriff „personalisierte Interaktionswelten“ benutzt, er beschreibt die Entfaltung der Netzwerkorganisation und der Dateninfrastrukur von individuellen Nutzungsanforderungen aus. Die UbiComp-Technik mit ihrer Unterstützung interaktiver Sozialmodelle soll nach diesem Verständnis Alternative und Emanzipaton von mechanischen Technikmodellen sein. Anwendungen wie beispielsweise das intelligente Haus oder der persönliche Softwareagent sind nach dem Bild eines Dieners an die Bedürfnisse ihrer Besitzer angepasst. UbiComp ist in diesen Szenarien ein weiterer Baustein zur konsequenten Individualisierung des Mediengebrauchs.
Der geplante Beitrag setzt sich einerseits mit den Chancen des UbiComp für eine emanzipierte und individualisierte Techniknutzung auseinander und problematisiert andererseits die Tendenz zur technischen Verwirklichung einer ausgebreiteten, totalen oder totalitären Subjektivität, die mit den Visionen einer intelligenten Umgebung verbunden sein kann. In diesem Zusammenhang soll der Frage nachgegangen werden, ob eine ethisch begründete Forderung nach einer informationstechnikfreien Umgebung plausibel ist.
Kontakt
Prof. Dr. Christoph Hubig
Universität Stuttgart
Abteilung für Wissenschaftstheorie und Technikphilosophie
Seidenstraße 36
70174 Stuttgart
Tel.: 0711 - 121 - 2491
E-Mail: christoph.hubig∂philo.uni-stuttgart.de
Internet: http://www.uni-stuttgart.de/wt
Jessica Heesen, M. A.
Universität Stuttgart
Abteilung für Wissenschaftstheorie und Technikphilosophie,
Sonderforschungsbereich der Deutschen Forschungsgemeinschaft Nr. 627 „Nexus“:
Umgebungsmodelle für mobile kontextbezogene Systeme.
Tel.: 0711 - 121 - 2347
E-Mail: jessica.heesen∂philo.uni-stuttgart.de
Internet: http://www.uni-stuttgart.de/wt, http://www.nexus.uni-stuttgart.de
Technikfolgenbeurteilung und Governance in einer "fragilen Welt"
Abstract
Die Diagnose der Fragilität von Individuum, Gesellschaft und Umwelt transportiert wenig Zuversicht für die Technikgestaltung. Die Metapher der Zerbrechlichkeit mahnt vielmehr zu äußerster Vorsicht, ja zu schonender Nachgiebigkeit. Mit Technikgestaltung verträgt sie sich schlecht. Denn Gestaltung bedeutet zielgerichtete Veränderung. Sie misslingt, wenn das Material zu fein oder zu spröde ist. Gestaltung führt dann schnell zu Zerstörung.
Besonders heikel sind daher Mahnungen, Technikgestaltung sei zur Erhaltung der fragilen Welt mit besonderem Elan zu betreiben. Diese Rhetorik gelingt nur, wenn die Welt in fragile und robuste Teile aufgeteilt wird: Für die fragile Umwelt werden robuste Individuen, die robuste Gesellschaft oder die robuste Wirtschaft verändert. Für die fragile Wirtschaft werden robuste Gesellschaft und robuste Umwelt umgestaltet. Et cetera.
Jenseits derartiger Fragilitäts-Rhetorik lässt sich indes feststellen, dass Entscheidungsverfahren die Technikgestaltungen betreffen, in immer stärkerem Maße fragil werden. Fragilität bedeutet hier die Möglichkeit der Fragmentierung von am Entscheidungsverfahren beteiligten Personen und Parteien in Hinsicht auf die Entscheidungsaufgabe. Diese Fragmentierung führt zu einer Lähmung des Entscheidungsprozesses.
Technikfolgenbeurteilung als wissenschaftliche Leistung allein kann den Entscheidungsprozess zwar aufklären, aber nicht antreiben. Komplementär bedarf es einer Gestaltung von Entscheidungsprozessen, die nicht nur die formalen Verfahren, sondern die auch die informellen Anteile berücksichtigt, wie sie sich naturwüchsig entwickelt haben. Formale und informelle Anteile gemeinsam bezeichnet man als Governance.
Der Vortrag soll eine Skizze der Governance von Technikgestaltung entwickeln und Technikfolgenbeurteilung als kognitive Leistung positionieren, um robuste Entscheidungsverfahren einer fragilen Welt entgegenzusetzen.
Kontakt
Dr. Gerd Hanekamp
Europäische Akademie GmbH
Wilhelmstr. 56
53474 Bad Neuenahr-Ahrweiler
E-Mail: Gerd.Hanekamp∂dlr.de
Science Assessment als Wissenschaftsmediation und Wissenspolitik
Abstract
Die Bewältigung von wissenschaftlich-technisch induzierten Risiken ist im Zuge fortschreitender Modernisierung einem tiefgreifenden Wandel ausgesetzt, in dessen Verlauf nicht allein das Ausmaß der wahrgenommenen Risiken zugenommen hat, sondern sich vor allem deren Qualität verändert hat. Moderne Gesellschaften haben darauf seit den 1960er Jahren - ausgehend von den USA zunächst mit dem Konzept der Technikfolgenabschätzung (Technology Assessment, TA) reagiert. Darunter wurde eine expertenzentrierte Form der wissenschaftlichen Politikberatung verstanden, deren Ziel es war, das Wissen über die möglichen oder wahrscheinlichen Folgen einer vor der Anwendung stehenden technischen Innovation zu erweitern und zu verbessern.
In meinem Beitrag möchten ich die These erläutern, dass nicht nur der enge Rahmen dieses TA-Konzepts in den letzten Jahren aufgebrochen worden ist, sondern auch die Problematik der Folgenbewertung technischer Entwicklungen immer stärker auf die Wissenschaft selbst durchschlägt und hier zu Anpassungsreaktionen zwingt. Dies zeigt sich besonders in drei Phänomenen:
- der "Vorverlagerung“ und Ausweitung der Folgenreflexion vom scheinbaren Endpunkt, der anwendungsfähigen Technik, auf den gesamten Forschungs-, Entwicklungs- und Innovationsprozess;
- der wachsenden Bedeutung, die der Umgang mit Nichtwissen dabei gewinnt, sowie
- der Tatsache, dass eine wachsende Zahl von Forschungen nicht nur normativ hochgradig umstritten sind, sondern auch dazu zwingen, kategoriale Basisunterscheidungen und normative Grundprinzipien moderner Gesellschaften zu überprüfen und ggf. zu reformulieren (etwa in den Feldern der Humangenetik, Reproduktions- und Intensivmedizin, "grünen“ Gentechnik oder Nanotechnologie).
Solche Tendenzen verdichten sich zu einem Wandel von dem punktuellen, (vermeintlich) wissens- und faktenbasierten sowie normativ (scheinbar) neutralen Technology Assessment zu einem prozessualen, ungewissheits- und nichtwissens-basierten Science Assessment (Wissenschaftsfolgenabschätzung, WFA). Darin lassen sich, so meine Vermutung, zentrale Elemente eines Prozesses der reflexiven Modernisierung erkennen, d.h. einer Modernisierungsdynamik, die ihre eigenen Grundlagen und konstitutiven Grenzziehungen (zwischen Wissenschaft, Öffentlichkeit und Politik; zwischen Experten und Laien; zwischen Wissen und Nichtwissen; zwischen Fakten und Werten) in Frage stellt und untergräbt. Ziel des Science Assessment kann demnach nicht mehr ausschließlich sein, das Wissen über Wissenschafts- und Technikfolgen zu verbessern, sondern zugleich auch, Strategien des Umgangs mit wissenschaftlichem, wissenschafts-induziertem Nichtwissen sowie normativem Dissens vorzuschlagen und zu erproben.
Dabei zeigen sich zwei Stoßrichtungen für Science Assessment. Die eine zielt auf eine Erweiterung von Nebenfolgenreflexion in der Wissenschaft selbst (WFA 1. Ordnung). Dies wird im Wesentlichen durch eine transdisziplinäre Wissenschaftskultur ermöglicht, die als institutionelle Absicherung Formen der Wissenschaftsmediation benötigt. Die andere zielt auf die Steigerung gesellschaftlicher Lernfähigkeit (WFA 2. Ordnung). Hierbei ist insbesondere das Wechselspiel zwischen den Akteuren aus unterschiedlichen institutionellen Bereichen zu fördern und politisch abzusichern. Politik muss nicht nur weiterhin die Entfesselung von Forschung unterstützen, sondern gleichzeitig Formen für ihre Begrenzung finden, also Wissenspolitik etablieren. Vor dem Hintergrund empirischer Beispiele aus dem Feld der Gentechnologie soll in diesem Beitrag die Frage diskutiert werden, in welcher Weise spätmoderne Gesellschaften versuchen, der Entfesselungslogik von Forschung neue Selbstbindungsmechanismen entgegen zu setzen und welche Ansatzpunkte und Strategien zur weiteren Konsolidierung solcher Prozesse notwendig sind.
Kontakt
Dr. Stefan Böschen
Universität Augsburg
E-Mail: stefan boeschen ∂ phil uni-augsburg de
Technikcharakterisierung, leitbildorientierte Technikgestaltung und integrierte Managementsysteme - Drei Ansätze zur Operationalisierung des Vorsorgeprinzips
Abstract
Keine Innovation ist ohne Risiko. Die Tatsache, dass etwas „neu“ ist und dass man über etwaige problematische Folgen nicht genügend weiß, kann allein keine weit reichenden Vorsorgemaßnahmen bis hin zum Moratorium begründen. Für Maßnahmen, die weit über die immer angebrachte Behutsamkeit beim Betreten unbekannten Terrains hinausgehen, müssen „gute Gründe“ für eine „tief greifende Besorgnis“ vorliegen. Diese guten Gründe können aus einer „Charakterisierung“ von Technologien und Stoffen stammen. Eine solche Charakterisierung kann schon prospektiv erfolgen, also lange bevor die Einsatzbereiche und damit die möglichen Expositionen klar sind, ja auch schon vor der Existenz wissenschaftlich abgesicherter Wirkungsmodelle. So gilt z. B. in dem Entwurf zur Europäischen Chemikaliengesetzgebung REACH die Kombination der Eigenschaften „sehr persistent“ und „sehr bioakkumulativ“ bei Chemikalien als hinreichend Besorgnis erregend, um eine Zulassung zu erzwingen, selbst wenn noch keine hinreichend begründeten Verdachtsmomente auf etwaige Schadwirkungen vorliegen.
Es werden die Ergebnisse zweier vom BMBF geförderter Forschungsprojekte vorgestellt und unter dem Aspekt von Wissensanforderungen und Managementperspektiven zur Operationalisierung des Vorsorgeprinzips miteinander verknüpft. Im Projekt Subchem (Gestaltungsoptionen für handlungsfähige Innovationssysteme zur erfolgreichen Substitution gefährlicher Stoffe www.subchem.de) wurde auf der Basis von 13 Fallstudien der Ersatz von Gefahrstoffen durch weniger gefährliche Stoffe bzw. Anwendungssysteme als Innovationsprozess untersucht. Neben allgemeinen und spezifischen Systemträgheiten, die sich insbesondere auf die Innovationsfähigkeit auswirken, haben diese Substitutionsprozesse vor allem mit dem Problem der Innovationsrichtung zu kämpfen. Es existieren zahlreiche Beispiele für Substitutionen, die in die falsche Richtung gingen. Z. B. wurden FCKWs, PCBs, chlorierte Lösemittel und bromierte Flammschutzmittel als „sicherere“ Substitute eingeführt. Das Risikominderungsziel betraf Explosionsschutz, Brandschutz und bei FCKW auch geringere Toxizität. Zudem wird ungenügendes Wissen über mögliche Wirkungen sowohl der Gefahrstoffe als auch der Substitute allzugerne vorgebracht, um Innovationen abzublocken. Wenn alle darauf bestehen, dass erst gehandelt wird, wenn a) die Gefährlichkeit des Gefahrstoffs und b) die relative Ungefährlichkeit des Substituts umfassend geklärt ist, findet die Substitution nicht statt. Ein auf Gefahrstoffe bezogenes Risikomanagement kann also nicht vorwiegend auf toxikologisches Wirkungswissen gegründet werden. Ansätze für Auswege aus diesem Nicht-Wissens-Dilemma der Risikoabschätzung liegen in einem erweiterten Risikomanagement. Viel versprechend ist hier erstens die leitbildorientierte Entwicklung und Gestaltung von Stoffen bzw. Anwendungssystemen. Die Leitbilder „Kreislauffähigkeit“, „wässrige Systeme“ und „Eigensicherheit“ haben in den Fallbeispielen eine wichtige, z. T. aber auch durchaus ambivalente, Rolle gespielt. Zum Zweiten eröffnet ein Qualitätsmanagement entlang der Wertschöpfungskette, das die Aspekte der Arbeitssicherheit, des Verbraucherschutzes und Umweltschutzes integriert, weiter gehende Perspektiven.
Im Projekt „Innovations- und Technikanalyse zur Nanotechnologie - Themenfeld „Nachhaltigkeitseffekte durch Herstellung und Anwendung nanotechnologischer Produkte“ wurde zum Einen versucht, mit Hilfe eher konventioneller, an die Ökobilanz angelehnter, Ansätze, die erwartbaren Verbesserungen der Ökoeffizienz ausgewählter Projekte abzuschätzen (u. a. Beschichtungen, Katalysatoren, Displays, weiße LEDs). Die „Technikcharakterisierung“ fokussierte darüber hinaus, im Sinne einer „prospektiven TA“, auf zwei Aspekte dieser recht heterogenen Technologielinie, auf die Eigenschaften und erwartbaren Wirkungen von Nanopartikeln sowie auf die Nutzung von Selbstorganisationsprinzipien und einen möglichen Übergang von der Selbstorganisation zur Selbstreproduktion. Darüber hinaus wurden auch hier die Möglichkeiten zu einer leitbildorientierten Gestaltung bestimmter Linien der Nanotechnologie diskutiert.
Die Ergebnisse der Technikcharakterisierung deuten darauf hin, dass zumindest in der derzeitigen chemisch-physikalischen Frühphase die Qualitäten der nanotechnologiespezifischen Risiken mit denjenigen der synthetischen Chemie durchaus vergleichbar sind. Damit stellt sich die Frage, ob und wie weitgehend die Industriegesellschaften in der Lage sind, aus den zum Teil durchaus leidvollen Erfahrungen im Chemiebereich für die Entwicklung, Gestaltung und für das Risikomanagement der Nanotechnologie zu lernen.
Kontakt
Prof. Dr. Arnim von Gleich
Universität Bremen
FB Produktionstechnik
Fachgebiet Technikgestaltung und Technologieentwicklung
Postfach 330440
28334 Bremen
E-Mail: gleich∂uni-bremen.de
Umgang mit Klimarisiken. Handlungsstrategien und ihre Implikationen
Abstract
Die Diagnose einer fragilen Welt mag durchaus strittig sein. Es lässt sich jedoch unabhängig von der These, dass unsere Welt fragiler geworden sei, konstatieren, dass die Eingriffs- und Erkenntnistiefe menschlichen - und damit auch technischen Handelns in die Prozesse und Beschaffenheit unserer Umwelt zugenommen hat. Menschlich bedingte Umweltveränderungen haben globale Dimensionen erreicht, deren gesellschaftliche Wirkungen voraussichtlich weit in die Zukunft reichen werden. Mit dem „Sündenfall“ der Globalen Erwärmung begreift sich der Mensch zugleich als Leidtragender und Verursacher sehr umfassender unwünschbarer Klimawirkungen. Angesichts dieser Verhältnisse scheint der Ruf nach effektiven Präventionsmaßnahmen schlüssig und legitim zu sein. Gleichwohl blieben die bislang erreichten Resultate internationaler Klimapolitik weit hinter den ursprünglichen Erwartungen an die Minderung klimawirksamer Emissionen zurück - trotz sich weiter verdichtenden Anzeichen für einen globalen Klimawandel. Es ist zu fragen, ob der Widerspruch zwischen Anspruch und Realität des Klimahandelns u.a. auch in den bisherigen Vorverständnissen und Akzentsetzungen begründet liegt.
Vor diesem Hintergrund wären folgende Punkte am Beispiel der Klimaproblematik zu diskutieren bzw. zu klären:
- Die Bedeutung von Prävention und Adaption in der Umweltvorsorge und ihre grundsätzliche Ambivalenz.
- Der Bezug angemessener Umweltvorsorge zur Risikolage.
- Perspektiven für eine Konvergenz von Vorsorgestrategien.
- Probleme der Konkretisierung geeigneter Vorsorgestrategien.
Insbesondere der letzte Punkt richtet sich an das kritische Auditorium.
Kontakt
Dr. Stephan Lingner
Europäische Akademie GmbH
Wilhelmstr. 56
53474 Bad Neuenahr-Ahrweiler
Tel.: +49 (0) 26 41 - 973 306
Fax: +49 (0) 26 41 - 973 320
E-Mail: stephan.lingner∂dlr.de
Sustainability Foresight: Reflexive Gestaltung von Transformationsprozessen in deutschen Versorgungssystemen
Abstract
Since the mid-1990s utility regimes have entered into a process of accelerating structural change with liberalisation, privatisation and internationalisation playing a central role. Structural dynamics create opportunities for giving shape to sustainable configurations but it also entails the risk of new path dependencies with adverse ecological, social or economic impacts. Strategies are required to shape this transformation process with a long-term perspective. But there are fundamental challenges: (a) uncertainty about complex dynamics of socio-technical change, (b) ambivalence of sustainability goals against the background of scientific uncertainty and conflicting values and (c) distributed steering capacities among actors with heterogeneous interests.
The paper presents Sustainability Foresight as an approach to deal with these challenges. It is discussed in light of process experience and interim results from an experimental application in the German utility sector (electricity, natural gas, water, telecommunications). The method aims at providing a platform for collective, future oriented learning across the different action domains of production, consumption and regulation. It comprises three phases
- Transformation dynamics: Exploration of alternative paths of transformation in participatory scenario workshops, identification of highly dynamic fields of innovation.
- Sustainability assessment: Elicitation of evaluation criteria held by different stakeholders in order to identify critical innovations with respect to sustainability impacts.
- Strategies: Analysis of options and constraints for actors to shape transformation, development of measures to modulate innovation processes with respect to sustainability.
The general approach is related to participatory foresight methodology and constructive technology assessment. Yet, it is not oriented towards a focal technology or one focal actor, but addresses structural patterns on the sector level and collective goals and action capacities on a societal level. And it includes a third phase beyond scenario building and assessment that contains cooperative strategy development with participation of stakeholders.
In conclusion we discuss achievements of the Sustainability Foresight approach against the background of its limitations such as the criticality of selecting participants, diffusion of foresight results into everyday practices and resource intensity of the procedure. Based on this we present recommendations for further applications of the proposed method.
Kontakt
Jan-Peter Voß
Öko-Institut e.V.
Institut für angewandte Ökologie
Novalisstr. 10
10115 Berlin
Tel.: +49 (0) 30 / 28 04 86 80
Fax: +49 (0) 30 / 28 04 86 88
E-Mail: j.voss∂oeko.de
Dr. Kornelia Konrad, Dr. Bernhard Truffer
EAWAG
Centre for Innovation Research in the Utility Sector
CH-6047 Kastanienbaum
E-Mail: kornelia.konrad∂eawag.ch, bernhard.truffer∂eawag.ch
Internet: http://www.cirus.ch; http://www.greenhydro.ch; http://www.eawag.ch
Governance in der Technikfolgenabschätzung
Abstract
Im Umgang mit Fragilität ist die moderne Demokratie allen übrigen Herrschaftsformen strukturell überlegen. Keine Regierungsform besitzt das Potential, so dynamisch mit Herausforderungen der fragilen Welt umzugehen. Politik in der Demokratie ist öffentlicher Konflikt von Interessen unter den Bedingungen von öffentlichem Machtgebrauch und Konsensbedarf. So sensibilisieren Parteienwettbewerb, demokratische Öffentlichkeit und gesellschaftlicher Pluralismus Politik für gesellschaftliche Konflikte. Herrschaft auf Zeit und die Institutionalisierung des Parlaments als Gesetzgeber ermöglichen den (unblutigen) Machtwechsel und die Korrektur bzw. die Neuakzentuierung politischer Entscheidungen durch veränderte parlamentarische Mehrheiten. Gleichzeitig zeigt die Analyse politisch-administrativer Problemverarbeitungsprozesse die Defizite der Praxis des Regierens im demokratischen Staat. Politik büßt Handlungsfähigkeit ein, da sie häufig erst nachträglich, selektiv und partitial steuernd und koordinierend einzugreifen versucht. Staatliches Handeln, so der Politik- und Verwaltungswissenschaftler Carl Böhret, folgt dem Prinzip der unkoordinierten „kleinen Schritte“ , des „Versuch und Irrtum“, ja dem Durchwursteln, angesichts hohem Aushandlungs- und Koordinierungsaufwands.
Angesichts der Probleme staatlicher Steuerung wird seit einiger Zeit über Handlungsspielräume des Staates diskutiert. Neuerdings soll besonders ein Begriff die veränderte Steuerungs- und Koordinationsfunktion des Staates auf den Punkt bringen: Governance. Governance lässt sich als Koordination und Steuerung interdependenter Handlungen unterschiedlicher gesellschaftlicher Akteure verstehen. Betroffen ist besonders die Funktion des Staates im Zusammenspiel mit Akteuren der Wirtschaft und Gesellschaft. Unter den veränderten Bedingungen wird dem Staat nicht mehr der Platz als Steuerungszentrum der Gesellschaft reserviert. Denn die Interorganisationsbeziehungen zwischen Staat, Wirtschaft und Gesellschaft werden nicht mehr durch einen Akteur bestimmt. Vielmehr vollzieht sich Politik als Zusammenspiel sich selbststeuernder Systeme durch Interaktion und Kooperation.
Im Rahmen des Vortrags wird untersucht, welche Bedeutung Governance für Technikfolgenabschätzung und -bewertung zukommt. Handelt es sich bei dem Begriff nur um „alten Wein in neuen Schläuchen“ oder trägt Governance zu einem besseren Verständnis der Rolle des Staates bei der Gestaltung von Innovationsprozessen bei? In einem ersten Schritt wird die Bedeutung des Perspektivwechsels von Government zu Governance herausgearbeitet. Hierbei steht die Beantwortung der Frage im Vordergrund, wie sich die Steuerungs- und Koordinationsfunktion des Staates im neuen Verständnis gewandelt hat. Im Anschluss wird die Relevanz des Begriffs Governance für Technikfolgenabschätzung und -bewertung beleuchtet. Inwiefern verändern sich unter den Bedingungen von Governance die Erwartungen an den Staat als wichtigem Akteur im Innovationsprozess? Drittens werden die Rückwirkungen des neuen Steuerungs- und Koordinationsmodells auf die Konzeption von TA diskutiert. Lassen sich mit Hilfe von Governance neue Handlungskorridore für die Gestaltung von Innovationsprozessen unter den Bedingungen von Fragilität aufzeigen?
Kontakt
Stephan Bröchler
FernUniversität in Hagen
Institut für Politikwissenschaft
Eugen-Schmalenbach-Gebäude
Universitätsstr. 41
58084 Hagen
Tel.: +49 02331 987-2738
E-Mail: Stephan.broechler∂FernUni-Hagen.de
Internet: http://www.FernUni-Hagen.de
Prospektive Gestaltung von Wissenschaft und Technik - Umgang mit Fragilität und Ambivalenz
Abstract
Die dynamische Entwicklung von Wissenschaft und Technik wird zunehmend als ambivalent empfunden. Als Reflex auf die Risiken, aber auch die Erwartungshaltungen, in Bezug auf wissenschaftlich-technische Prozesse wurden Konzepte der Technikfolgenabschätzung und der Technikgeneseforschung entwickelt. Beide Ansätze sind aus unterschiedlichen Perspektiven kritisiert worden und bieten gleichzeitig das Potenzial für zeitgemäße Weiterentwicklungen, die insbesondere die frühzeitige Gestaltung von Entwicklungsprozessen in den Blick nehmen.
Wir schlagen ein Rahmenkonzept der prospektiven Wissenschafts- und Technikbewertung und -gestaltung vor. Als normativen Bezugspunkt sehen wir die in der europäischen Ideengeschichte verankerten allgemeinen Zielkriterien der Erhaltung und Entfaltung an, die auch als Bestimmung des Leitziels der nachhaltigen Entwicklung dienen können. Die Leitkriterien der Zukunfts-, Sozial-, Human-, und Umweltorientierung für die Wissenschafts- und Technikentwicklung können als Werte, die bislang als „wissenschaftsextern“ angesehen wurden, zu den bewährten „innerwissenschaftlichen“ (Qualitäts-) Kriterien hinzutreten.
Der Bezug auf Erhaltung und Erfaltung erfordert eine Kritik an überwiegend risikoorientierten Technikdiskursen. Wir plädieren für eine Erweiterung der Risikoperspektive um die Berücksichtigung der Forschungsphase selbst sowie für die Einbeziehung des Risikos, angestrebte oder erklärte Forschungsziele tatsächlich erreichen zu können. Andererseits sollte eine systematische Betrachtung der Potenziale spezifischer Forschungs- und Technikentwicklung vorgenommen werden, um eine Positivbestimmung der Fortschrittstendenzen zu ermöglichen. Das positiv Gewollte sollte innerhalb und außerhalb der Sphäre der Wissenschaft vermittelbar und überprüfbar - ggf. korrigierbar - werden. Eine Stärkung der problemorientierten gegenüber einer eingeschränkt technikimmanenten Perspektive erscheint dazu notwendig.
Wir sehen Forschungs- und Technologieprojekte in aller Regel durch spezifische Voraussetzungen und Zugänge der Akteure ausgezeichnet, die bestimmte Entwicklungskorridore eröffnen. Daraus ergibt sich eine Alternativenstruktur der wissenschaftlich-technischen Fortentwicklung. Durch die Wahrnehmung verschiedener Zugangsweisen können Pfadwahlen eröffnet werden (klassisches Beispiel: Energiepfade) und damit Gestaltungsspielräume eröffnet werden.
Letztlich ist mit dem Ansatz prospektiver Wissenschafts- und Technikbewertung und -gestaltung eine Reflexion auf die Voraussetzungen, Wertbindungen, Potenziale, die angestrebten Wirkungen, die Risiken und die absehbaren Folgen konkreter Forschungs- und Technologieprojekte angestrebt. Kriteriengeleitete Betrachtungs-, Bewertungs-, und Gestaltungdiskurse sollen ermöglicht werden. Dazu wird eine Konkretisierung der genannten Leitkriterien benötigt, die sich sachgerecht auf das jeweilige Forschungs- und Technikfeld bezieht und deren Eigentümlichkeit berücksichtigt. Um ein Höchstmaß an wissenschaftlich-technisch möglicher und gesellschaftlich gewollter Innovation und Legitimation zu erreichen, müssen die gewählten Kriterien zum einen von den Sachseiten her gerechtfertigt und angemessen erscheinen und zum anderen eine Orientierung an Zielen und Werten deutlich machen. Anhand der Kriterien soll die Zukunftsfähigkeit von Forschungs- und Entwicklungsprojekten transparent und überprüfbar werden. Damit werden Lernprozesse für alle Beteiligten und Akteure angestoßen. Weiterhin können Knotenpunkte innerwissenschaftlicher Entwicklungen und außerwissenschaftlicher Erwartungen und Einflussmöglichkeiten so fokussiert werden, dass wohldurchdachte Entscheidungsprozesse angeregt werden.
Die Fragilität der vernetzten Gesellschafts- und Naturzusammenhänge könnte so durch den konkretisierten Umgang mit der Ambivalenz des wissenschaftlich-technischen Fortschritts Berücksichtigung finden und zu behutsamen Gestaltungsprozessen führen. Anhand von Beispielprojekten kann der prospektive Gestaltungsansatz illustriert und gestützt werden.
Kontakt
Dr. Wolfgang Liebert, Prof. Dr. Wolfgang Bender, Dr. Jan C. Schmidt
Technische Universität Darmstadt
Interdisziplinäre Arbeitsgruppe Naturwissenschaft, Technik und Sicherheit (IANUS)
Hochschulstr. 4a
64289 Darmstadt
Tel.: +49 (0) 6151 - 16 - 4368
Vergleichende Risikobewertung. Konzepte, Probleme und Anwendungsmöglichkeiten
Abstract
Die vergleichende Risikobewertung (Comparative Risk Assessment; CRA) spielt in Deutschland bislang keine besondere Rolle, weder im Bereich der Abschätzung und Bewertung von Risiken, noch im Bereich des Risikomanagements. Für eine rationale Prioritätensetzung beim Einsatz öffentlicher und privater Mittel zur Minderung oder Vermeidung von Risiken sind sie jedoch essentiell - so die deutsche Risikokommission.
Im Rahmen eines vom BfS geförderten Projekts wurden Konzepte, Probleme und Anwendungsmöglichkeiten der CRA untersucht. Wesentliche Ergebnisse sollen in dem Beitrag vorgestellt werden.
Insgesamt bieten die bisherigen Erfahrungen mit CRAs - vor allem in den USA - zwar reiches Anschauungsmaterial zur Vielfalt der Umsetzungsmöglichkeiten, sie sind aber wegen der administrativen, politischen und nicht zuletzt auch kulturellen Unterschiede zu Deutschland bzw. Europa nur begrenzt direkt nutzbar.
Eine wichtige Voraussetzung für eine CRA ist die Harmonisierung der Verfahren zur Abschätzung und zur Bewertung von Risiken in unterschiedlichen Bereichen. Dabei sollte die Charakterisierung der Risiken ein eigenständiger Schritt sein; sie umfasst die Zusammenfassung der Ergebnisse von Gefährdungspotenzial-Identifikation, Dosis-Wirkungs-Abschätzung sowie Expositionsabschätzung. Der gesamte Prozess erfordert wissenschaftliche Expertise und muss noch weiterentwickelt werden, um effizient anwendbar zu sein. Ein wesentliches Problem ist die Evidenzbewertung. Hier müssen Kategorien entwickelt werden, die in eindeutiger Weise operationalisiert sind. Worst-case-Szenarien sind wegen ihrer Beliebigkeitskomponente keine tragfähige Basis zur Abschätzung und Bewertung von Risiken. Dosis-Wirkungs-Abschätzungen sollten nach standardisierten und harmonisierten Verfahren festgelegt werden. Mit Blick auf die Relevanz von Gefährdungspotenzialen kommt der Expositionsabschätzung eine große Bedeutung zu.
Eine vergleichende Risikobewertung kann als multiattributes Bewertungsverfahren konzeptualisiert werden. Sie kann damit auf dem Ansatz der multiattributen Entscheidungsfindung aufbauen, der ein theoretisch fundiertes und strukturiertes Vorgehen in überschaubaren Einzelschritten ermöglicht. Für die einzelnen Schritte (Problemstrukturierung, Attributstrukturierung und -gewichtung, Sensitivitätsanalyse etc.) gibt es eine Reihe von praktisch erprobten Verfahren. Eine Stärke dieses Ansatzes ist, dass er das Explizitmachen von Vorannahmen und Wertungen fördert und deswegen eine transparente vergleichende Risikobewertung unterstützt. Deshalb ist dieser Ansatz auch gerade für CRA-Verfahren geeignet, an denen verschiedene Bewerter(gruppen) - Experten und Stakeholder - teilnehmen.
Eine wichtige Voraussetzung für den Erfolg eines CRA-Projekts ist eine gute Kommunikation. Wesentlich sind hier sowohl eindeutige Zielsetzungen, explizite und verständliche Definitionen der zu vergleichenden Risiken, der Bewertungskriterien und der Messgrößen sowie insbesondere eine verständliche Risikocharakterisierung.
Die Anwendung verfügbarer CRA-Methoden auf konkrete Fragestellungen ist die beste Möglichkeit, ihren Entwicklungsstand und praktischen Nutzen zu beurteilen. Daher sollten möglichst bald mittels einer Test-CRA praktische Erfahrungen gesammelt werden, um zu klären, welche Basis für Weiterentwicklungen existiert und welche Ansätze hierfür erfolgversprechend sind.
Kontakt
Holger Schütz, Dr. Peter M. Wiedemann, Dr. Johannes Mertens
Forschungszentrum Jülich GmbH
Programmgruppe Mensch - Umwelt - Technik
52425 Jülich
E-Mail: j.mertens∂fz-juelich.de
Anforderungen und Chancen der Bioethik unter den veränderten Bedingungen einer digitalen Medienkultur - Eine philosophische Annäherung
Abstract
Im Zeitalter pluralistischer, technologisch hochentwickelter Massengesellschaften gewinnt der wissenschaftlich geführte Diskurs über Moral als integrative Kraft an Bedeutung. Durch die Herausbildung neuer, technologiebestimmter Handlungsfelder generiert sich eine Tiefe ethischer Fragestellungen, die hinsichtlich gravierender gesellschaftlicher Risiken und Interessenkonflikte erhöhten Steuerungsbedarf einfordert. Die Herausbildung themenspezifischer Bereichsethiken, die im Sinne einer Ethik der praktischen Klugheit versuchen, auf die konkreten Einzelfragen zu reagieren, dürfen als grundsätzliches Bemühen gelten, diese Herausforderungen anzunehmen. Ihre Ergebnisse können die notwendige Verständigung auf bestimmte normative Ziele zwar nicht als Diktat vorgeben. Indem das praktisch-ethische Verfahren darauf abzielt, die einzelnen Problemfelder in ihren Argumentationslinien, Begriffen und Diskussionsebenen zu bestimmen, verhilft es jedoch insgesamt zu einer strukturierten Diskurskultur und damit zu den Voraussetzungen gelungener normativer Verständigung.
Als einer der bedeutsamsten Bereiche solcher begleitenden Reflexionsarbeit hat die Bioethik zu gelten. Hier generieren sich Lösungskonzepte speziell zu Fragen, die das Selbstverständnis des Menschen im Kern betreffen und damit Individuum und Gesellschaft vor einen enormen Vermittlungsanspruch stellen. Insofern die Reflexion auf grundsätzlich umstrittene Technologien den Mittelpunkt einer jeden bioethischen Debatte bilden, kann ihr diskursives Geschehen als mittelbarer Beitrag zu Technikgestaltung und Risikokommunikation gelesen werden.
Unter der Prämisse, dass Diskurse in Laufrichtung und Ergebnis durch die Verfasstheit ihrer tragenden Vermittlungstechnologien bestimmt werden, erscheint der Blick auf die Bedeutung einer digitalisierten Medienlandschaft für den bioethischen Diskurs von vornherein gerechtfertigt. Die mediale Transformation der Digitalisierung muss medienhistorisch als ein fundamentaler Bruch verstanden werden: der digitale Paradigmenwechsel in der Informationsverarbeitung stellt herkömmliche mediale Verfahren unter vollständig veränderte Bedingungen und generiert darüber hinaus gänzlich neuartige Technologien.
Um die Bedeutung einer solchen technisierten Medienlandschaft für wissenschaftliche Reflexion, gesellschaftliche Kommunikation und deren Vermittlung zu bestimmen, erscheint eine Annäherung unter philosophischer Perspektive vielversprechend. Das Internet als digitale Schlüsseltechnologie, welche die neuen digitalen Möglichkeiten - insbesondere auf der Grundlage totaler Konvertierbarkeit - in paradigmatischer Weise realisiert, bietet sich als primärer Untersuchungsgegenstand an. An ihm können die allgemeinen phänomenspezifischen Wesensmerkmale digitaler Medialität herausgearbeitet, erläutert und dokumentiert werden. Schwerpunkte der Analyse bilden das Konzept einer virtuellen Realität mit ihrer veränderten Rolle von Raum und Zeit sowie die Verknüpfung von Interaktivität, Hypertextualität und Transversalität als einer neuen Form schriftlich-mündlicher Überschneidung.
Ein Ausblick auf die Bedeutung medialer Verfahren für normative Vermittlungsprozesse scheint auf dieser Grundlage möglich. Dabei müssen zwei Aspekte getrennt voneinander betrachtet werden: das moralische Urteilen und die moralische Perzeption. Konsensfindung im Sinne kollektiver Urteilsbildung sowie die subjektive Einsicht in die grundsätzlich komplexen wissenschaftlichen Gegenstände der Bioethik im Sinne des informed consent sind nur auf der Grundlage geeigneter medialer Architekturen möglich. Auf einer grundlegenderen Ebene scheint darüber hinaus auch das vor jeder begrifflichen Auseinandersetzung stehende Gespür für die moralische Relevanz einer Situation - das Moment moralischer Wahrnehmung - als fundamentale Voraussetzung erfolgreicher Moralvermittlung zu gelten.
Vor dem Hintergrund eines verantwortungsbewussten ethischen Arbeitens auf dem Gebiet der Bioethik gilt es auf der Grundlage der skizzierten Überlegungen einen angemessenen Umgang mit den vorhandenen medientechnologischen Möglichkeiten zu ermitteln bzw. Kriterien zu formulieren, nach denen der technologische Entwicklungsprozess nach Maßgabe erfolgreicher normativer Vermittlung in modernen pluralistischen Gesellschaften gestaltet werden soll.
Kontakt
Christine Kolbe, M.A.
Rheinische Friedrich-Wilhelms-Universität Bonn
IWE - Institut für Wissenschaft und Ethik
Tel.: +49 (0) 228 - 73 19 22
Fax: +49 (0) 228 - 73 19 50
E-Mail: kolbe∂iwe.uni-bonn.de
Internet: http://www.iwe.uni-bonn.de/deutsch/index_ns4.html
Alternative Rationalitäten? Technikbewertung durch Laien und Experten am Beispiel der Biomedizin
Abstract
Expertenwissen wird gerade in jenen Feldern für die Politik zu einer zentralen Handlungs- und Legitimationsressource, wo infolge wissenschaftlich-technischer Innovationsdynamiken moralische Grundfragen neu zur Disposition gestellt werden und politische Entscheidungszwänge entstehen. Ein herausragender Fall ist aktuell die Biotechnologie, man denke nur an die gewichtige Orientierungsfunktion diverser Expertenempfehlungen für die Parlamentsdebatten zur Stammzellforschung oder der genetischen Diagnostik. Die politische Nachfrage nach bioethischer Expertise hat zu einem regelrechten Boom der Kommissionsethik geführt, der sich aktuell in einem Neben- und Durcheinander von institutionalisierter Expertise äußert.
Nun wird von der Politik nicht nur wissenschaftliches Wissen abgefragt. Gerade im Fall moralisch sensibler Fragen bekommen Beteiligungsexperimente wie Bürger- und Konsensuskonferenzen, Szenario-Workshops usw. immer mehr Gewicht. Von derartigen Formen einer „demokratischen Technikbewertung“ (Abels / Bora) verspricht man sich im Wesentlichen zweierlei: die Integration alltagsweltlicher Wissensbestände und Erfahrungen in den Meinungsbildungsprozess sowie ein öffentliches „Monitoring“ fachwissenschaftlich gebundener Expertise (im Sinne eines öffentlichen Akzeptabilitätstests der in derartigen Expertisen versteckten normativen Prämissen), also Pluralismus und Transparenz.
Auf Basis unserer empirischen Untersuchungen werden wir folgende Thesen entwickeln:
- Verstärken partizipative Verfahren die Relevanz außerwissenschaftlicher Erfahrungen und Wissensbestände?
Zumindest bei komplexen Themen und Sachverhalten bleibt auch in den Bürgerpanels das Expertenwissen der dominante Bezugsrahmen für die Entscheidungsfindungsprozesse - es kommt zu einer paradoxen Expertokratisierung der Laiengremien. Der Expertendiskurs wird zum maßgeblichen und selektiven Ordnungsrahmen der Laiendiskussionen. Zudem spielen organisationale Zwänge und Opportunitäten eine wichtigere Rolle für den inhaltlichen Output als die Abwägung ethischer Positionen und Argumente auf der Basis individuellen Erfahrungswissens. Ethische Positionen gelten als „Privatsache“, die diskursiv nicht wirklich verhandelbar ist. - Sind Bioethikkommissionen überhaupt Ethikgremien? Geht es hier eigentlich um Werte und / oder um Wissen(schaft)?
Unsere Untersuchung von Aushandlungsprozessen in Expertengremien zeigt, dass das offizielle Label - Ethik - genau genommen trügt. Zumindest als expliziter theoretischer Diskurs spielen ethische Grundfragen keine wesentliche Rolle. Die Diskussion solcher Grundfragen wird zugunsten (immer nur partieller) Einigungsfähigkeit zurück gestellt, damit die Akteure ihre Interessen - die Steigerung der Mehrheitsfähigkeit der eigenen ethischen Positionen - effektiv wahren können. Ebenso wie die „ethische Expertise“ ist auch das Expertenwissen als (medizinisches oder biologisches) „Sachstandswissen“ in der Kommission ein komplexes soziales Aushandlungsprodukt und bleibt an die Bedeutung lebensweltlichen Wissens rückgebunden. - Sind Expertenräte eine Gefahr für die Entscheidungsautonomie der Politik?
Bioethikkommissionen produzieren in aller Regel ethischen Dissens in Form divergierender Empfehlungen. Die Politik wird dadurch jedoch keinesfalls vor ein grundsätzliches Legitimationsproblem gestellt; der (erwartbare) Dissens der Experten bringt die Notwendigkeit einer politischen Entscheidung überhaupt erst wieder zur Erscheinung. Im Zeitalter prinzipieller Unsicherheit stellt der Abruf institutionalisierter (Gegen)Expertise einen Faktor zur Herstellung eines glaubwürdigen Zeitpunkts für politisches Entscheiden dar. Es ist genau diese Symbolfunktion der Expertise, die sie für die Politik heute so wichtig macht.
Dies zeigt erstens, dass für die Analyse und Beschreibung von Prozess- und Ergebnislogiken von Technikberatung maßgebliche Unterscheidungen wie Wissen/Werte oder Experten- versus Laienrationalität zu kurz greifen. Es sind organisationale Zwänge, Diskursordnungen und mikropolitisches Handeln, die den materiellen Output der Diskussionen prägen. Zweitens herrscht verkehrte Welt: Im „Laiengremium“ waltet Expertenwissen, und Alltagswissen greift Raum im Expertenrat. Wir müssen - Stichwort Expertendissens - weder eine neue Expertokratie fürchten, noch dürfen wir bei Beteiligungsexperimenten auf die Artikulation alternativer Rationalitäten vertrauen.
Empirischer Hintergrund des Papiers ist das Forschungsprojekt „Expertenwissen, Öffentlichkeit und politische Entscheidung. Ethikkommissionen und Bürgerbeteiligung als Instrumente der Politikberatung in Deutschland und Österreich“, das vom Bundesministerium für Bildung und Forschung im Rahmen der Förderinitiative „Wissen für Entscheidungsprozesse - Forschung zum Verhältnis von Wissenschaft, Politik und Gesellschaft“ finanziert und unter der Leitung von Prof. Dr. Wilhelm Schumm am Institut für Sozialforschung, Frankfurt am Main, in Kooperation mit dem Institut für Technikfolgenabschätzung, Wien, durchgeführt wird.
Kontakt
Alexander Bogner
Institut für Technikfolgen-Abschätzung der
Österreichischen Akademie der Wissenschaften
Strohgasse 45
A-1030 Wien
Tel.: 0043 - 1 - 51581 - 6595
E-Mail: abogner∂oeaw.ac.at
Wolfgang Menz
Institut für Sozialforschung an der
Johann Wolfgang Goethe-Universität
Senckenberganlage 25
60325 Frankfurt am Main
Tel.: 069 - 756183 - 47
E-Mail: w.menz∂soz.uni-frankfurt.de
Privatsphäre - Ein Grundrecht ohne Schutz?
Abstract
Bringt der rasante technische Fortschritt nach dem oft proklamierten „Ende der Privatsphäre“ auch das Ende der Möglichkeiten mit sich, deren spärliche Reste zu schützen? Lässt sich ein freiwilliger oder erzwungener Verzicht auf das Grundrecht auf Privatsphäre mit dem Fortbestand und der Weiterentwicklung demokratische Gesellschaften vereinbaren? Dies sind die zentralen Fragen, die im Rahmen des geplanten Beitrages diskutiert werden sollen.
Den Ausgangspunkt der Analyse bildet die Vielzahl von bekannten technischen Entwicklungen, welche die Privatsphäre bedrohen. Wichtige, bereits zurückgelegte Schritte sind die Digitalisierung der Telekommunikation, welche die Erstellung von Kommunikationsprofilen ermöglicht, der Siegeszug der Mobilkommunikation, der diese Profile um Daten über den jeweiligen Aufenthaltsort anreichert, oder das Internet, dessen Nutzung Informationen über persönliche Interessen oder Vorlieben preisgibt. Als nächste Meilensteine, die sich auf dem Weg zur panoptischen Gesellschaft bereits deutlich abzeichnen, sind allgegenwärtige Informationstechnologien, perfektionierte biometrische Methoden oder umfassende genetische Analysen zu nennen.
Die stetig wachsenden Möglichkeiten der Datengenerierung werden von einem ebenso rasch zunehmenden Begehren begleitet, die gebotenen Möglichkeiten auch tatsächlich zu nutzen. Im Namen höherer Gewinne, verbesserter Dienstleistungen oder mehr Sicherheit greifen private Unternehmen oder staatliche Institutionen bedenkenlos auf vorhandene Daten zu oder erzwingen die Schaffung neuer Datenpools, indem sie bisher Verbotenes zur gesetzlichen Pflicht erheben. Dieser Entwicklung wird von Seiten der Betroffenen nur wenig Widerstand entgegengebracht; größere Bequemlichkeit oder das Versprechen höherer Sicherheit reichen oft aus, freiwillig Daten bekannt zu geben oder deren Verarbeitung zuzustimmen, ohne dass eine sachliche Überprüfung der Argumente gefordert wird.
So dramatisch diese Entwicklungen auch sein mögen, für die Stabilität demokratischer Gesellschaften ist der negative Einfluss neuer Technologien auf die Säulen des gegenwärtigen Datenschutzes noch dramatischer einzuschätzen als der direkte Verlust an individueller Privatsphäre. Gleichgültig ob es sich um unverbindliche internationale Vereinbarungen wie die OECD Privacy Guidelines oder um EU-Richtlinien handelt, die zwingend in nationales Recht zu transformieren sind, beruht der Datenschutz auf einigen wenigen zentralen Prinzipien. Dazu zählen etwa das Prinzip der strengen Zweckbindung von Datenverarbeitungen oder die Voraussetzung eines informierten Einverständnisses des Betroffenen zur Datensammlungen und Auswertung. Die Mehrzahl dieser Prinzipien steht aber in eklatantem Widerspruch zu den neuen technischen Entwicklungen, die realistischer Weise nicht aufzuhalten sein werden. Natürlich eröffnet der technische Fortschritt auch neue Möglichkeiten, Datenschutz durch Technik zu betreiben. In der Praxis profitieren davon aber hauptsächlich Benutzer mit weit reichenden EDV-Kenntnissen. Für einen durchschnittlichen Nutzer erweisen sich so genannte PETs (Privacy Enhancing Technologies) bislang als kaum nutzbar oder nützlich; ebenso wenig ist - zumindest unter den gegenwärtigen gesellschaftlichen und politischen Rahmenbedingungen - mit dem Aufbau privatsphärenschonender, anonymitätsfördernder Infrastrukturen zu rechnen.
Angesichts des technischen Zangenangriffs auf die Privatsphäre und der oft zu beobachtenden Geringschätzung, die diesem Grundrecht entgegengebracht wird, scheint Ende umfassende Analyse der Funktionen dieses Grundrechts notwendig zu sein. Neben demokratiepolitischen Aspekten sind dabei auch die Bedeutung für die gesellschaftliche Innovationsfähigkeit oder wirtschaftliche Wettbewerbsfähigkeit zu untersuchen. Einen ebenso wichtigen, zukünftigen Forschungsbereich stellen Alternativen zu den bröckelnden Säulen des gegenwärtigen Datenschutzes dar. Abschließend sollen zu den Themen funktionale Analyse des Grundrechts auf Privatsphäre und zukünftige Möglichkeiten zur dessen effektiven Schutz erste Ergebnisse und Lösungsansätze skizziert und offene Forschungsfragen identifiziert werden.
Kontakt
Johann Cas
Institut für Technikfolgen-Abschätzung
Österreichische Akademie der Wissenschaften
Strohgasse 45 / 3. Stock
A-1030 Wien
Verantwortung wahrnehmen
Abstract
Technikfolgenabschätzung als akademische Veranstaltung hat ein Umsetzungsproblem. Neue technische Produkte und technologische Prozesse entstehen vorrangig in Unternehmen unter Bedingungen, deren Setzung durch externe Technikfolgenabschätzung und darauf gegründete Regulierung zwar beeinflusst werden kann. Jedoch nur Technikfolgenabschätzung, die gestaltungsoptimistisch vorgeht und in die faktischen Betriebsabläufe von Unternehmen integriert ist, wird einen Beitrag leisten können zur strategischen Orientierung des Innovationsgeschehens am gesellschaftlich Wünschbaren.
Diese These sagt zugespitzt, dass nur eine betrieblich integrierte Technikfolgenabschätzung die gewünschte Innovationsorientierung an außerbetrieblichen Kriterien hervorbringen kann. Eine Auflösung des Paradoxes ist meiner Ansicht nach auf der Ebene der Verschränkung von Individuum und Kollektiv im professionalisierten Entstehungskontext von Technik zu suchen.
Ich möchte in meinem Beitrag eine Modellierung des erfinderischen Geschehens vorstellen, in welcher die Teilnehmerperspektive des kreativen Individuums mit der wissenschaftlichen Beobachterperspektive topologisch in einer flachen Zweidimensionalität verknüpft ist. Zentraler Angelpunkt dieses einfachen Modells ist die im Spannungsfeld von Selbst und Welt hervorgebrachte Lösungsgestalt.
Eine Auffassung der „Produktidee“ als Lösungsgestalt, weitergehend der Produktentstehung als sukzessives Herausstellen von Lösungsgestalten im orientierenden Feld eines eingelebten Technikstils, erlaubt den Quellpunkt der Technikgenese als kollektiv gebundene, individuelle Leistung so zu thematisieren, dass sich das Individuum darin wiedererkennen kann. Reflexivität in diesem Sinne - und genau darauf kommt es an - würde der Technikethik einen Ort am Ursprung der Technik gewinnen.
Ambitionen dirigistischer Techniksteuerung sind skeptisch zu beurteilen. Es gilt, meine ich, ein Sensorium zu entwickeln zur Orientierung des orientierenden Feldes der Technikgenese. Technikfolgenabschätzung ist dabei ein reflexiv strukturbildendes Moment. Ein anderes ist die optimistische Anerkenntnis der Ohnmacht des Individuums in einer fragilen Welt.
Kontakt
Dipl.-Ing. Ulrich Glotzbach
E-Mail: glotzbach.ulrich∂vdi.de
Neue Technologien - Neue Gestaltungsmöglichkeiten? Politische Technikgestaltung in der Nanotechnologiepolitik
Abstract
Die Wahrnehmung der Welt als fragil resultiert auch aus der Ambivalenz technischer Entwicklung. Statt eines eindeutigen Fortschrittsoptimismus oder -pessimismus wird technische Entwicklung heute in ihrer Widersprüchlichkeit von Chancen einerseits und Risiken andererseits gesehen. Dadurch ist die Politik mit widersprüchlichen Anforderungen konfrontiert, einerseits die technische Entwicklung zu beschleunigen und anderseits die Risiken, die mit den Technologien verbunden sind, zu vermeiden. Die Technikfolgen-Abschätzung kann dabei maßgeblich dazu beitragen, Innovationspfade sichtbar zu machen, in deren Rahmen sich Risiken vermindern lassen und die die Möglichkeit bieten, die technische Entwicklung an gesellschaftlichen Zielen auszurichten (z. B. Nachhaltigkeit). TA schafft damit die Grundlagen von gesellschaftlicher Technikreflexion und politischer Technikgestaltung.
Inwieweit Möglichkeiten der politischen Technikgestaltung gesehen werden, hängt auch von der zugrundeliegenden Auffassung von staatlichem Handeln ab. Wird staatliche Handlungsfähigkeit als hierarchisch übergeordneter Prozess aufgefasst, erscheinen die Gestaltungsmöglichkeiten gering. Wenn jedoch die vielfältigen Entscheidungsprozesse und Institutionen in den Blick genommen werden, die technologiepolitische Strategien und Innovationspfade ausmachen, so werden Gestaltungsoptionen sichtbar.
In der Nanotechnologie ist die Ambivalenz der Technikentwicklung stark ausgeprägt. Dies zeigt sich in öffentlichen Diskursen, in denen Horrorvisionen (selbstreplizierender Nano-Roboter, die alles Leben auf der Erde vernichten könnten) mit Zukunftsvorstellungen eines Nanozeitalters konkurrieren, in dem Armut und Mangel mit Hilfe der Nanotechnologie überwunden werden. Zugleich erhöht die Entwicklung einer zukünftigen Schlüssel- und Querschnittstechnologie wie der Nanotechnologie die Gestaltungsmöglichkeiten: Mit einem neuen technologiepolitischen Handlungsfeld können neue oder modifizierte technologiepolitische Instrumente eingesetzt werden und neue Netzwerkstrukturen und Institutionen aufgebaut werden. Damit steigt die Chance, Zielen und Leitbildern Geltung zu verschaffen, nach denen die Technologieentwicklung gesellschaftlich ausgerichtet werden soll.
In dem Beitrag soll am Beispiel der Konstituierung einer Nanotechnologiepolitik in Deutschland gezeigt werden, wie sich technikbezogene Entscheidungsprozesse im Zusammenspiel von Technikfolgenabschätzung, Leitbildentwicklung, Netzwerkgestaltung (Akteure und ihre Interaktionsformen) und spezifischen technologiepolitischen Instrumenten herausbilden und wo Gestaltungsoptionen festzustellen sind.
Kontakt
Dr. Petra Schaper-Rinkel
Freie Universität Berlin
Fachbereich Politik- und Sozialwissenschaften
Otto-Suhr-Institut für Politikwissenschaft
DFG-Projekt "Politik der Nanotechnologie"
Ihnestr. 22
14195 Berlin
E-Mail: psr∂zedat.fu-berlin.de
Internet: http://www.nanotechnologiepolitik.de
TA Rolle im Informationsfluss
Abstract
In diesem Beitrag wird „Information“ als eine kritische Größe für die Wechselwirkungen zwischen Technikfolgen-Abschätzung und Technikentwicklung diskutiert. Eines der Ziele der Technikfolgen-Abschätzung ist die Verbesserung des Informationsstandes über die Folgen von Technologien, um einen geeigneten Umgang mit gesellschaftlich relevanten Technologien zu unterstützen. Ein prominentes Problem mit der Erfüllung dieses Zieles wurde von Croy (1996) beschrieben. In der Anfangphase einer Entwicklung sind die Möglichkeiten zu einer Veränderungen groß, während viele Folgen der Technologien noch nicht bekannt sind. Z.B. wäre es zu Beginn des 19. Jahrhunderts mit einem wesentlich geringerem Aufwand möglich gewesen, Mechanismen von Automobilmotoren zu verändern, wenn die negativen Umweltauswirkungen des Benzinmotors bekannt gewesen wären. In den letzten Jahrzehnten hingegen, wäre eine Veränderung der etablierten Benzin- und Dieselmotoren mit erheblichen politischen, organisatorischen und wirtschaftlichen Schwierigkeiten verbunden gewesen, obwohl das Wissen über Schadstoffemissionen und die negativen Folgen dieser Technologie fortgeschritten waren.
Tabelle 1: Collindrige Dilemma für Technologiepolitik
In der frühen Phase der Entwicklung | Nach der Etablierung der Technologie | |
Informationsstand über Technikfolgen | gering | hoch |
Möglichkeiten für die Veränderungen in der Technologieentwicklung | hoch | gering |
Auf den ersten Blick könnte dieses Dilemma durch eine Steigerung der Effizienz bei der Informationserhebung und eine Verbesserung von Qualität und Brauchbarkeit vorhandener Informationen gelöst werden. Allerdings wird durch Erhebung, Sammlung und Analyse bzw. zwangläufige Selektion der Informationen in der expertenorientierten TA oder durch intensiven Informationsaustausch mit und zwischen den beteiligten Akteure in der partizipativen TA der Informationsfluss im Technikentwicklungssystem durch die Technikfolgen-Abschätzung stark beeinflusst. Dies kann nicht nur zu positiven sondern auch zu negativen Veränderungen der Gestaltungsmöglichkeiten für die Technologien führen. Es stellt sich daher die Frage, wie die kritische Größe „Information“ in der TA behandelt wird und welche Methoden zur optimalen Nutzung der erhöhten Informationsdynamik vorhanden sind.
In einem Beispiel wird eine ITA-Studie über die Chancen und Risken für Membrantechnologie in der Produktionsindustrie und den Informationsfluss für die Technologieentwicklung erläutert. (Sotoudeh, Mihalyi et al. 2000; Sotoudeh and Mihalyi 2004) Schließlich wird der Einfluss der Technikfolgen-Abschätzung auf den Informationsfluss in der Technologieentwicklung diskutiert.
Referenzen
Croy, M. J. (1996):
„Collingridge and the control of educational computer technology“. PHIL & TECH 1(3-4 spring).
Sotoudeh, M.; Mihalyi, B. (2004):
„Manufactures' response to the needs of users of integrated membrane technology“. Journal of Cleaner Production: 9.
Sotoudeh, M.; Mihalyi, B. et al. (2000):
Bewertung des Durchsetzungspotentials und der Wirtschaftlichkeit vorsorgender Umwelttechnologien, zwei Fallbeispiele. BMLFUW. Wien, ITA.
Kontakt
Mahshid Sotoudeh, Susanne Schidler
Institut für Technikfolgen-Abschätzung ITA / ÖAW
Strohgasse 45 / 5
A-1030 Wien
E-Mail: mahshid.sotoudeh∂oeaw.ac.at, susanne.schidler∂oeaw.ac.at
Identität und Normativität. Zum Zusammenhang von Persistenz und Persönlichkeit mit Zuträglichkeit und moralischer Verbindlichkeit im Hinblick auf die gentechnische Verbesserung des Menschen
Abstract
Im Zuge neuer biomedizinischer Entwicklungen werden in immer stärkerem Maße Interventionsmöglichkeiten erörtert, die nicht auf die Heilung von Krankheiten abzielen, sondern zum Zwecke der Festlegung, Verbesserung bzw. Steigerung personaler oder gattungsbezogener Eigenschaften oder Fähigkeiten eingesetzt werden. Dazu zählen beispielsweise gentechnische oder hormoninduzierte Manipulationen von Merkmalen, die psychopharmakologische Verbesserung von mentalen Zuständen oder kosmetisch-chirurgische Eingriffe ins Erscheinungsbild bzw. die Geschlechtsidentität. Darüber hinaus sind darunter auch solche Bemühungen zu subsumieren, die den Alterungsprozess des Menschen erforschen wollen mit dem Ziel, in diesen Vorgang steuernd bzw. verlangsamend einwirken zu können.
In der Fokussierung auf ein in der Bioethik sehr kontrovers diskutiertes Handlungsfeld, die - de facto freilich noch weitgehend utopische - Manipulation des menschlichen Genoms zum Zwecke der Verbesserung phänotypischer Merkmale des Individuums bzw. der Gattung soll das skizzierte normativ-ethische Problem konkretisiert werden. Genetische Interventionen scheinen intuitiv in einem ungleich stärkeren Maße den Kern des Personseins zu treffen als dies umwelt- oder sozialisationsbedingte Eingriffe tun. Von dieser Prämisse geht beispielsweise Habermas aus, wenn er als Argument gegen genetische Manipulationen des Embryos anführt, dass die spätere Person essentielle Grundbedingungen ihres personalen Soseins nicht mehr retrospektiv verarbeitend einholen könne. Der naturhaften genetischen Kontingenz wird damit gleichsam eine konstitutive Rolle bei der Herausbildung einer authentischen und autonomen Persönlichkeit zugewiesen. Eine von dritter Seite manipulierte genetische Identität wird als eine autonomieeinschränkende Bestimmung interpretiert, weil sich für die Identität der Persönlichkeit wesentliche Aspekte fremder Einflussnahme verdanken. Gegen diese Position könnte eingewandt werden, dass eine derartige Intervention dem Individuum gerade mehr Freiheitsspielräume eröffnen oder sein Wohlbefinden im Sinne eines gelingenden Leben gar befördern könnte.
Eine normative Beurteilung verbessernder Eingriffe soll vor dem Hintergrund der Konzepte personaler und humaner (d. h. auf die Gattung bezogener) Identität vorgenommen werden, wobei es das Verhältnis von Identität und moralischer Normativität aus drei zu differenzierenden, aber dennoch miteinander verknüpften Perspektiven zu untersuchen gilt:
- Perspektive der Persistenz einer naturalen Entität. Nimmt man aus der Beobachterperspektive Bestimmungen und Kriterien von Identität in den Blick, die die Persistenz des Menschen hinsichtlich seiner genetischen oder körperlichen Konstitution betreffen, lautet die normativ relevante Frage: Ist die Persistenz der kontinuierlichen menschlichen Entität mit Blick auf z. B. gentechnisch verbessernde Eingriffe normativ?
- Perspektive praktischer Identität der Person / Persönlichkeit bzw. der Gattung: Der Begriff der Persönlichkeit bezeichnet aus der Teilnehmerperspektive die evaluativ-deskriptive Ebene der Person, er umfasst z. B. den Aspekt erstpersönlicher biographischer Identität und das normative Selbstbild des Subjekts. In welchem Sinne kann hier von einer normativen Identität die Rede sein?
- Perspektive der natural-praktischen Identität als Selbstverhältnis der Person / der Gattung zu seiner bzw. ihrer naturalen Verfasstheit.
Naturale Konstitutionsverhältnisse von Personen / Menschen einerseits und personales / anthropologisches Selbstverständnis andererseits sind zu unterscheiden und in ihrer Beziehung zueinander zu beurteilen. Vor diesem Hintergrund ist dann von entscheidender Bedeutung, den normativen Geltungsanspruch der natural-praktischen Identität darzulegen bzw. zu erörtern, inwieweit ein solcher überhaupt aufrechtzuerhalten ist. Die provokante These Derek Parfits aufgreifend, dass Identität nicht dasjenige sei, auf das es für das Selbstverständnis einer Person ankomme, ergibt sich dann die Frage, inwiefern Persistenz für die Persönlichkeit bzw. die Gattung in einem normativen Sinne doch relevant ist oder gar sein muss.
Kontakt
Thomas Runkel
IWE - Institut für Wissenschaft und Ethik
Rheinische Friedrich-Wilhelms-Universität Bonn
Niebuhrstr. 51
53113 Bonn
Tel.: +49 (0)228 / 73 - 19 27
Mobil: 0170 - 97 456 05
Fax: +49 (0)228 / 73 - 19 50
E-Mail: runkel∂iwe.uni-bonn.de
Internet: http://www.iwe.uni-bonn.de
eGovernment-Prozesse und Geschlechtergerechtigkeit?
Abstract
Das Internet, substantieller Teil der „Informationsgesellschaft“, fördert vielfältige Hoffnungen auf ein Mehr an Information, Teilhabe und Diskursivität. Euphorisch versprechen sich manche AutorInnen (vgl. Leggewie & Maar 1998) die Entstehung eines neuen öffentlichen Raumes, in dem sich Demokratie auf direkte Weise zu konstituieren vermag. In neu entstandenen Öffentlichkeiten sollen Hierarchien abgebaut und die gleichberechtigte Teilnahme aller Bürgerinnen und Bürger ermöglicht werden. Das Internet könne - so die hoffnungsfrohe These - zu einer Demokratisierung der gesellschaftlichen und politischer Prozesse beitragen.
In diese Diskussionen um elektronische Demokratie fallen auch Debatten zu electronic Government (eGovernment). Unter eGovernment werden dabei die gesellschaftlichen und politischen Prozessen im Zusammenhang mit Regieren und Verwalten verstanden, die mit Hilfe von Informations- und Kommunikationstechnologien zustande kommen (vgl. Fachausschuss Verwaltungsinformatik der Gesellschaft für Informatik 2000, Lucke&Reinermann 2002). Auch eGovernment-Prozesse sollen den Bürgerinnen und Bürgern eines umgrenzten Raumes gleichen Zugang und mehr Teilhabemöglichkeiten am politischen und staatlichen Geschehen bieten. Es können neue Informations- und Partizipationsangebote für verschiedene Bevölkerungsgruppen entstehen; auch lassen sich die elektronischen Möglichkeiten politischer Teilhabe, Interaktivität, Kommunikation und eine relative Offenheit bei der Themenwahl sowie neue Formen politischer Aktionen zu einer größeren Berücksichtigung von Gender-Aspekten nutzen.
Diese Prozesse sind jedoch sehr fragil; durch unterschiedliche Faktoren wird die unbegrenzte Offenheit, Gleichheit und Diskursivität im Sinne von Habermas (1995) bzw. in der feministischen Erweiterung von Fraser (1996, 2001) gefährdet, dass sich idealerweise in diesen Prozessen widerspiegeln sollte. Die vorhandenen Möglichkeiten zur Demokratisierung und Berücksichtigung von Geschlechtergerechtigkeit sind bedroht. Denn es findet eine Exklusion bestimmter Bevölkerungsgruppen im Internetzugang und der -nutzung statt. Noch immer bestimmen Bildung, Einkommen, Alter und Geschlecht wer Zugang zum Netz hat. [1] So hat sich gezeigt, dass zum größten Teil diejenigen teilhaben, die auch bisher schon politisch aktiv waren und im Netz ebenfalls Hierarchien präsent sind.
Im Bereich von eGovernment, so z. B. im Bundesportal www.bund.de dem zentralen Bestandteil der eGovernment-Initiative der Bundesregierung, werden Genderperspektiven kaum berücksichtigt (Winker / Drüeke 2004). Nur vereinzelt wird das Thema Gleichstellung benannt. Die Ansprache von bestimmten Interessensgruppe von Frauen wie Migrantinnen, Hausfrauen oder Mädchen ist ebenso wenig vorhanden wie Angebote, die sich gezielt mit frauenpolitischen Fragestellungen beschäftigen.
Wichtig ist aber der Ausbau von Chancengleichheit für alle gesellschaftlichen Gruppen im Bereich des eGovernment. Dies soll dazu führen, dass der Zugang zu Information und Wissen im Internet ausgedehnt wird sowie vielfältige Teilhabemöglichkeiten gefördert und politische Prozesse erweitert werden.
Fragen, die mich in diesem Zusammenhang besonders interessieren, lauten:
- Wie wird bisher Geschlecht bei eGovernment-Prozessen vergegenständlicht? Denn gerade bei Konstruktionen von Geschlecht und den dazu gehörigen Internetangeboten im Bereich staatlicher Politiken zeigt sich, dass hier häufig mit konventionellen Geschlechtszuschreibungen oder Stereotypen gearbeitet wird und somit auch Dominanzen und Hierarchien mitkonstruiert werden. Auch werden vielfach nur die Interessen und Belange eines sozial männlichen Bürgers abgebildet. So werden Differenzen (re-)konstruiert und damit verfestigt. Sie entscheiden über Inklusion und Exklusion, denn die Nutzung von eGovernment-Portalen wird durch die Angebote mitbestimmt. Wie vollzieht sich also im Internet die gesellschaftliche Herstellung der Geschlechter, die nicht nur diskursiv, sondern im Sinne von Maihofer (1995) durch ökonomische, technologische, institutionelle Macht- und Herrschaftsverhältnisse mitbestimmt wird?
- Wie kann im Sinne von Fraser (2001) oder Benhabib (1997) eine Ausdehnung des Öffentlich-Politischen mit Ziel, verschiedenen Bevölkerungsgruppen zu beteiligen, erreicht werden und eine kritische Hinterfragung von Normen, die alle betreffen?
- Wie kann durch Breite und Vielfalt von Angeboten eine Nutzungsvielfalt für unterschiedliche Bevölkerungsgruppen erreicht werden?
Anmerkung
[1] vgl. Internet-Umfragen unter [http://www.w3b.de], (n)onliner Atlas 2002-2004 sowie (n)onliner Atlas 2003 und 2004 Gender Mainstreaming Sonderauswertung unter [http://www.nonliner-atlas.de].
Literatur
Benhabib, Seyla (1997):
„Die gefährdete Öffentlichkeit“, in: Claus Leggewie; Krzysztof Michalski (Hg.): Medien und Demokratie, Schriftenreihe Transit Heft 13, Frankfurt / Main, S. 26-41.
Fachausschuss Verwaltungsinformatik der Gesellschaft für Informatik e.V. und des Fachbereichs 1 der Informationstechnischen Gesellschaft im VDE (Hg.):
Memorandum „Electronic Government als Schlüssel zur Modernisierung von Staat und Verwaltung“, September 2000, abrufbar unter [http://www.mediakomm.net/documents/memorandum.pdf]
Fraser, Nancy (2001):
„Öffentliche Sphären, Genealogien und symbolische Ordnungen“, in: dsb: Die halbierte Gerechtigkeit, Frankfurt / Main, 2001, S. 107-250.
Leggewie, Claus; Maar, Christa (1998) (Hg.):
Internet und Politik. Von der Zuschauer- zur Beteiligungsdemokratie, Köln
Lucke, Jörn von; Reinermann, Heinrich (2002):
Speyerer Definition von Electronic Government (2002). Ergebnisse des Forschungsprojektes Regieren und Verwalten im Informationszeitalter. Online-Publikation [http://foev.dhv-speyer.de/ruvii]
Maihofer (1995):
Geschlecht als Existenzweise. Macht, Moral, Recht und Geschlechterdifferenz, Frankfurt / Main
Winker, Gabriele; Drüeke, Ricarda (2004):
Gender Mainstreaming im Bundesportal BundOnline 2005, [http://www.kompetenzz.de/filemanager/download/470/GM_Bundesportal_TUHH.pdf) (20.06.2004).
Kontakt
Ricarda Drüeke M.A.
Lehrstuhl für philosophische Grundlagen kulturwissenschaftlicher Analyse
Europa-Universität Viadrina Frankfurt (Oder)
Postfach 1786
15207 Frankfurt (Oder)
E-Mail: drueeke∂euv-frankfurt-o.de
Neue Formen der Bürgerschaft in Europa? Laien und Experten im Diskurs um die Biomedizin
Abstract
Auf diesem Poster stelle ich meine Analyse einer innovativen und ambitionierten Veranstaltung zur Bürgerbeteiligung am gesellschaftlichen Diskurs um die Biomedizin dar - eines „Szenario-Workshops“, in dem Laien und Experten gemeinsam Handlungsempfehlungen für gesellschaftliche Entscheidungsträger entwickelten. Ziel der Veranstaltung war außerdem, einen Beitrag zur Entwicklung von Methoden gesellschaftlicher Meinungsbildung und Entscheidungsfindung zu leisten.
Die ethnografische Analyse zeigt: Teilnehmer und Veranstalter produzierten in dem Verfahren, das als eines der partizipativen Forschungs- und Technologiebewertung konzipiert war, nicht nur Zukunftsszenarien und Handlungsempfehlungen: Durch die in der Veranstaltung praktizierte Verknüpfung der kulturellen Konzepte von „Laien“ und „Experten“ - die auf wahrgenommene Ungleichheit verweisen - und des Konzeptes des „Bürgers“ - das auf normative Gleichheit verweist - wurde eine neue Form politischen Engagements und politischer Verantwortung ko-produziert. Ich bezeichne diese Form als „epistemic citizenship“.
„Epistemic citizenship“ ist geprägt durch die individuelle Erfahrung eigenen, potentiell relevanten Wissens und gleichzeitig eigenen Nichtwissens während der Arbeit in einem wissensproduzierenden Kollektiv. In der Veranstaltung musste deshalb die Grenze zwischen „Experten“ und „Laien“, zwischen Wissen und Nichtwissen innerhalb der einzelnen Teilnehmer gezogen werden - und zwar auch von diesen selbst. Diese Erfahrung wurde als eine explizit politische begriffen. Die Organisatoren solcher Workshops können als „neue Experten“ einer „civic epistemology“ verstanden werden, da sie daran arbeiten, valides Wissen und Methoden für gesellschaftliche und politische Auseinandersetzungen um Wissenschaft und Technologiepolitik zu entwickeln. Sie und ihr Wissen sind Voraussetzung für die Bildung von „Teilnehmergruppen“ als potentielle Subjekte politischer Normativität und begünstigen durch ihre Tätigkeit die Entstehung von „epistemic citizens“.
Die Ergebnisse der Untersuchung gewinnen an Relevanz vor dem Hintergrund dessen, was man die „Europäisierung Europas“ nennen kann. Denn noch immer ist die Europäische Union vor allem ein bürokratisches Gebilde, ihr werden von verschiedenen Seiten demokratische Defizite und Bürgerferne vorgeworfen. Das Thema Bürgerbeteiligung spielt deswegen eine große Rolle in den Feldern, auf denen sich „Europa“ konstituiert. Auf dem Gebiet der Wissenschafts-, Forschungs- und Technologiepolitik wird sie z. B. durch die Europäische Kommission gefördert, im Rahmen der „Science and Society“-Programme und des Europäischen Forschungsraumes (ERA). Ich fasse deshalb das Phänomen der Bürgerbeteiligung in der Wissenschafts- und Technologiepolitik als Element einer emergenten europäischen politischen Kultur auf. Die Europäisierung Europas ist außerdem eingebunden in größere Veränderungen von nationalstaatlich verfassten „Industriegesellschaften“ hin zu dem, was als transnationale „Wissensgesellschaft“ beschrieben wird. Welche „Wissenskompetenzen“ in einer solchen Gesellschaft Voraussetzung für das politische Engagement Einzelner sind, welche Formen sozialer Identität an Relevanz gewinnen und welche Akteure diese repräsentieren, sind deshalb drängende Fragen.
Messung von Nachhaltigkeit. Ein Instrument zur Beurteilung nachhaltiger Landschaftsplanung
Abstract
Der Beitrag stellt ausgewählte Ergebnisse eines am Fachbereich Wirtschaftswissenschaften der Fachhochschule Merseburg bearbeiteten Forschungsprojektes zum Thema „Qualität von Naturangeboten in urbanen Landschaften. Analogien zu betriebswirtschaftlichen Ansätzen der Produktpolitik“ vor. Gefördert wurde die Projektbearbeitung durch das UFZ Umweltforschungszentrum Leipzig-Halle GmbH, Department Ökonomie, Soziologie und Recht (vormals Projektbereich Urbane Landschaften). Sie ist dort eingebettet in das Verbundprojektes 3.1: „Stadtnatur. Management von Natur in urbanen Landschaften“.
Die in Raumordnungsverfahren involvierten Akteure sehen sich heute mit der Forderung konfrontiert, ihre Entscheidungen an den Erfordernissen einer nachhaltigen Entwicklung auszurichten, welche die natürlichen Lebensgrundlagen sichert, Mehrfachnutzungen der Landschaft möglichst konfliktarm gestaltet und die Rechte zukünftiger Generationen angemessen berücksichtigt. Trotz weitreichender Forschungsbeiträge der unterschiedlichsten Wissenschaftsdisziplinen zur Entwicklung von Landschaftsanalyse- und -bewertungsverfahren fehlt es in der Praxis von Landschaftsplanung und -entwicklung immer noch an entscheidungsunterstützenden Methoden, die eine angemessene Umsetzung des Nachhaltigkeitspostulats in den einzelnen Planungsebenen ermöglichen.
Es bedarf jedoch weniger der Entwicklung neuer Verfahren zur Beurteilung räumlicher Strukturen, Nutzungen, Funktionen und Potenziale, sondern vielmehr der Suche und begründeten Auswahl von geeigneten Bewertungsmaßstäben, welche Entscheidungen zur Landschaftsentwicklung transparent werden lassen.
Hauptziel der vorliegenden Arbeit war die Entwicklung einer Planungsmethodologie zum Management auftretender Landnutzungskonflikte. Die Verfahrensanwendung sollte eine operationale Unterstützung von Entscheidungen zum nachhaltigen Landschaftswandel gewährleisten. Aus dieser Zielstellung leiten sich die drei folgenden Bestandteile des entwickelten integrierenden Landschaftsplanungsverfahrens ab:
- Die Entwicklung eines theoretischen Modells, das zum besseren Verständnis der wechselseitigen Zusammenhänge von menschlicher Landschaftswahrnehmung, Landnutzung und Veränderungen des Landschaftsbildes beiträgt und sowohl die ökonomischen Effekte dieses Handelns wie auch dessen institutionelle und instrumentelle Rahmenbedingungen darstellt.
- Die Erarbeitung eines entscheidungsunterstützenden Konzeptes für aktiv in den Planungsprozess involvierte Akteure zur Abbildung von Kriterienkonkurrenzen und Ansatzpunkten zur Lösung dilemmabehafteter Situationen.
- Die Ableitung von Strategieempfehlungen zum nachhaltigen Management räumlicher Planung, welche nicht nur in integrierende Verfahren der Landschaftsplanung, sondern auch in Leitbild- und strukturpolitische Diskussionen sowie Landschaftsmarketing einfließen.
Den Ausgangspunkt für die Bearbeitung der Thematik bildete die These, dass viele Veränderungen des natürlichen und naturnahen Potenzials einer Landschaft eine Folge des menschlichen Handelns sind. Die Verfahrensentwicklung mündet deshalb in einen integrierenden Landschaftsplanungsmodus, der auf der Erkenntnis fußt, dass die Umsetzung von Konzepten zur Vermeidung oder Lösung von Landnutzungskonflikten nur durch Partizipation der von raumordnerischen Konzepten Betroffenen und Mitwirkenden möglich ist.
Die Verfahrensanwendung lässt nicht nur Empfehlungen zur Lösung von Konfliktfeldern zu, sondern unterstützt vielmehr auch die Suche nach Strategien für eine nachhaltige Gestaltung und Vermarktung von Landschaften. Das Planungsverfahren wird im Sinne einer erweiterten Stakeholder-Ökonomie erarbeitet.
Zur Spezik der Methodenentwicklung wurde u. a. in: Henn, A. / Patz, R.: Qualität des Naturdargebotes in der Landnutzung. Soziale und ökonomische Bewertung als Instrument der Entscheidungsunterstützung - In: „Technikfolgenabschätzung - Theorie und Praxis“, ITAS Institut für Technikfolgenabschätzung und Systemanalyse am Forschungszentrum Karlsruhe (Hrsg.), Nr. 2, 12. Jg. 2003, S. 104-110 referiert.
Kontakt
Annette Henn
Fachhochschule Merseburg
Fachbereich Wirtschaftswissenschaften
Geusaer Straße
06217 Merseburg
Tel.: +49 (0) 34 61 / 46 24 30
Fax: +49 (0) 34 61 / 46 24 22
E-Mail: annette henn ∂ www fh-merseburg de
Das Vorsorgeprinzip in der Informationsgesellschaft: gesellschaftliche Auswirkungen des Pervasive Computing
Abstract
Pervasive Computing ist eine zukünftige Anwendungsform von Informations- und Kommunikationstechnologien (ICT), die durch Miniaturisierung und Einbettung von Mikroelektronik in andere Objekte sowie ihre Vernetzung und Allgegenwart im Alltag gekennzeichnet ist. Anders als die meisten heutigen ICT-Produkte können die Komponenten des Pervasive Computing ausserdem ihren Aufenthaltsort und weitere Merkmale der Situation erfassen, ohne dass der Benutzer dies aktiv veranlasst (Kontextsensitivität). Eine solche im Alltag vieler Menschen allgegenwärtige und gleichzeitig unauffällige Technologie kann weit reichende Auswirkungen für das Individuum und die Gesellschaft als Ganzes hervorrufen. Neben der Erwartung vielfältiger Vorteile steht die Besorgnis über mögliche unerwünschte Nebeneffekte des Pervasive Computing im Raum.
Ziel der im Auftrag des Schweizer Zentrums für Technologiefolgenabschätzung durchgeführten Studie ist es:
- die Entwicklungsperspektiven der Informations- und Kommunikationstechnologie in Richtung des Pervasive Computing aufzuzeigen;
- Vorteile und Risiken dieser Entwicklung für Gesundheit und Umwelt abzuschätzen und aus einer Perspektive der Risikovorsorge gegeneinander abzuwägen und
- Wege zur Präzisierung des Vorsorgeprinzips in der Informationsgesellschaft aufzuzeigen sowie mögliche Vorsorgemassnahmen speziell für Pervasive Computing abzuleiten.
Der Zeithorizont der Untersuchung in Bezug auf die Technologie- und Marktentwicklung wurde in eine Nahperspektive (2007) und eine Fernperspektive (2012) aufgeteilt. Die Abschätzung der zukünftigen Entwicklung und ihrer Chancen und Risiken stützt sich auf eine interdisziplinäre Herangehensweise. Die Methoden reichten von Literaturauswertung, Trendextrapolation, Szenarien, Expertenworkshops bis zur Entwicklung eines Filters zur qualitativen Beurteilung von Risiken.
Das Augenmerk der Risikobeurteilung lag neben den Umweltwirkungen des Pervasive Computings und den Gesundheitswirkungen der emittierten nicht-ionisierenden Strahlung auch auf den sozialen und ökonomischen Auswirkungen. Es stellt sich heraus, dass die meisten gesellschaftlichen Effekte dieser neuen Technologie sowohl eine vorteilhafte als auch eine nachteilige Seite aufweisen. Solche „Janus-Effekte“ zeichnen sich häufig durch eine Ungleichverteilung von Chancen und Risiken innerhalb der Gesellschaft aus. Wenn Teilgruppen der Gesellschaft oder zukünftige Generationen unfreiwillig mit Nachteilen einer technologischen Entwicklung konfrontiert werden ohne einen adäquaten Nutzen daraus zu ziehen können Konflikte entstehen. Das Poster zeigt zusammenfassend gesellschaftlich relevante Chancen und Risiken auf, die durch Pervasive Computing zu erwarten sind. Ebenfalls dargestellt wird eine Übersicht zu möglichen Massnahmen zur Vermeidung solcher Risiken im Sinne des Vorsorgeprinzips.
Referenzen:
Lorenz Hilty et al. Das Vorsorgeprinzip in der Informationsgesellschaft: Auswirkungen des Pervasive Computing auf Gesundheit und Umwelt. Studie des Zentrums für Technologiefolgen-Abschätzung. TA 46 / 2003
Kontakt
Andreas Köhler
Eidgenössische Materialprüfungs- und Forschungsanstalt (EMPA)
St.Gallen, Schweiz
Tel.: +41 - 71 - 2747843
E-Mail: Andreas.Koehler∂empa.ch
"Nature made the food the way it is" - Einfluss von Naturvorstellungen auf die Einstellung zur grünen Gentechnik in Deutschland und den USA
Abstract
International vergleichende Studien zeigen immer wieder Einstellungsunterschiede zwischen Deutschen und Amerikanern im Hinblick auf die grüne Gentechnik. Danach zeichnen sich Deutsche durch eine kritischere Haltung zu grüner Gentechnik aus als Amerikaner. Zur Erklärung sind verschiedene Gründe angeführt worden. Wir möchten in diesem Zusammenhang den Blick auf das Erklärungspotential von Naturvorstellungen richten.
Unter Naturvorstellungen können allgemein alle der Natur zugeschriebenen Eigenschaften einschließlich ihrer evaluativen Konnotationen verstanden werden. Es sind grundsätzliche und konstante Überzeugungen über das Mensch-Umwelt-Verhältnis, die von den Mitgliedern einer Kultur geteilt und weitergegeben werden. Insbesondere bei der Meinungsbildung zu neuen und unbekannten (Risiko-)Technologien können die Naturvorstellungen eine wichtige Rolle spielen. Sie können als Bewertungsmaßstab herangezogen werden.
Das Poster stellt die Ergebnisse zweier Studien dar, die in Zusammenarbeit mit dem Food Policy Institute der Rutgers University, New Jersey, durchgeführt wurden. Zum einen konnten dabei Unterschiede in den Naturvorstellungen zwischen Deutschen und Amerikanern ermittelt und zum anderen deren Einfluss auf die Einstellung zur grünen Gentechnik aufgezeigt werden.
Bei der ersten Studie wurden in Deutschland und den USA je 40 vergleichbare Testpersonen (Grundschullehrer) interviewt, wobei sie u. a. nach ihren freien Assoziationen zum Begriff „Natur“ gefragt wurden. Die Auswertung der Gedanken zeigte unterschiedliche Antwortmuster. Während die Assoziationen der deutschen Befragten auf eine idealisierende Vorstellung von Natur schließen lassen, die stark mit dem Gedanken der Bedrohung und der Schutzbedürftigkeit verknüpft ist, überwogen in den USA wertfreie Aufzählungen von Naturerscheinungen.
In einer zweiten Studie wurden 601 Amerikanern und 942 Deutschen Fragen zu ihren Naturvorstellungen sowie Einstellungen zur grünen Gentechnik gestellt. Die Naturvorstellungen als auch Einstellungen zur Gentechnik wurden mittels Skalen mit jeweils 8 Items operationalisiert. Die Skala zu Naturvorstellungen differenziert die Befragten danach, ob sie der Natur einen hohen Wert an sich beimessen (ökozentrische Naturvorstellung) oder den Menschen und seine Bedürfnisse in den Mittelpunkt stellen (anthropozentrische Naturvorstellung). Signifikante Unterschiede zeigten sich dabei in den Naturvorstellungen zwischen den amerikanischen und deutschen Befragten. In Deutschland ist eine stärkere Tendenz zur ökozentrischen Naturvorstellung feststellbar als in den USA. Zudem besteht in beiden Ländern ein signifikanter Zusammenhang zwischen den Naturvorstellungen und der Einstellung zu grüner Gentechnik. Die Korrelationen zusammen mit den Mittelwertdifferenzen bei den Naturskalen erklären einen Teil der Einstellungsunterschiede zwischen Deutschland und den USA.
Trotz dieser vielversprechenden Ergebnisse bleiben die bisherigen theoretischen Herleitungen des Konzepts der „Naturvorstellungen“ meist undifferenziert und bieten kaum geeignete Methoden für eine erschöpfende empirische Überprüfung. Eine solche Konzeptionalisierung muss die verschiedenen Dimensionen bzw. Aspekte der Naturvorstellungen in Betracht ziehen als auch den verschiedenen Ausprägungen in unterschiedlichen Kulturkreisen gerecht werden. Die Erkenntnisse über die Zusammensetzung und Wirkung von Naturvorstellungen könnten dabei auch zur Untersuchung der Bewertung anderer Risiko- bzw. Chancentechnologien herangezogen werden.
Kontakt
Magdalena Sawicka
Forschungszentrum Jülich GmbH
Programmgruppe Mensch, Umwelt, Technik (MUT)
52425 Jülich
Tel.: 02461 - 61 3731
Fax: 02461 - 61 2950
E-Mail: m.sawicka∂fz-juelich.de
Going back to our roots - The role of nature in risk perception and risk communication of GM foods
Abstract
Utilizing an extended mental model approach to risk communication (Granger Morgan et al, 2002) complemented by social representations theory (Farr and Moscovici, 1984) the present thesis investigates expert and lay risk perceptions of GM food in the UK.
10 in-depth elite interviews with scientific experts of agricultural biotechnology were conducted, followed by 5 focus groups with members of the lay public.
Data were first explored with ALCESTE, a correspondence analytical tool, developed by Reinert (1998). Both expert and lay analyses yielded four correspondence clusters, showing clear divergences in GM food risk perceptions. For example, experts problematized the public understanding of science, but separated this from scientific risk. Lay participants on the other hand did not observe scientific risk in isolation and perceived the related interplay of science, politics and industry as worrying. So while the scientific risk per se is not the main focus of concern for lay participants, thinking about GM food seemingly evokes a range of negative associations.
Prominent lay associations with GM food risk concern representations of nature and 'what world do we want to live in'. In order to investigate these value-related associations in depth, data was triangulated using Atlas ti software (Muhr, 1991). As indicated by Sjoeberg (2000), it was found that the construct 'messing with nature' was of particular importance for lay participants, yet neglected by the experts.
Accordingly, utilising a free association task, further research will investigate the dynamics, structures and functions of this concept, i.e. what do participants really mean when they judge GM to be 'messing with nature'?
Findings to date will be presented. It is argued that for the effective development of technological risk communication strategies public perceptions need to be not only acknowledged but also incorporated in subsequent decision making.
Personal details
Name: | Anne Katrin Schlag |
Supervisor: | Professor George Gaskell |
Department: | PhD Social Psychology |
London School of Economics (UK) | |
E-Mail: | a.k.schlag∂lse.ac.uk |
Zwischen Norm und Nutzer: Entscheidungsunterstützung durch Ökobilanzen?
Abstract
ZielsetzungDas Poster basiert auf einer (noch nicht ganz abgeschlossenen) Dissertation am Lehrstuhl Stoffstrommanagement des Instituts für Umweltsystemforschung an der Universität Osnabrück über die „Ökologische und ökonomische Bewertung der Bioabfallentsorgung“. Es ist jedoch nicht Ziel des Posters, Ökobilanzergebnisse vorzustellen, sondern die Eignung der Ökobilanz als Unterstützung von Entscheidungsprozessen im Rahmen des öffentlichen Handelns zu diskutieren.
Anwendung von ÖkobilanzenDie Ökobilanz, ursprünglich entwickelt für die ökologische Bewertung von Produkten, hat ihr Anwendungsgebiet ausgedehnt und schließt die Bewertung von Dienstleistungen und komplexen Systemen, z.B. für die Abfallentsorgung, ein. Ökobilanzen weisen eine Reihe von Vorteilen auf. Sie sind international anerkannt und in Form einer ISO Norm standardisiert. Damit sind der Ablauf und die Inhalte einzelner Arbeitsschritte weltweit einheitlich. Ökobilanzen haben sich als Bewertungsverfahren etabliert. Das Prinzip, die Ermittlung, Klassifizierung und Verknüpfung von Stoffströmen mit einer funktionellen Einheit, ist unkompliziert, eindeutig und für vergleichende Bewertungen geeignet. Der Nachteil, dass Ökobilanzen keine standortbezogenen Umweltwirkungen ermitteln, sondern lediglich potentielle Umweltwirkungen abschätzen, ist dann ein Vorteil, wenn Entscheidungen absehbare Entwicklungen oder Handlungsoptionen in der Zukunft betreffen. Erwartet werden daher von gesellschaftlicher Seite meist möglichst „objektive“, eindeutige Resultate mit nachvollziehbaren Begründungen für Handlungsempfehlungen.
Herausforderungen und ForschungsbedarfWenn Technikbewertungen aber über die Bewertung der Umweltwirkungen hinausgehen, ist die ökozentrische Orientierung der Ökobilanz von Nachteil. Zwar können ökonomische Kenngrößen konzeptionell einfach in Ökobilanzen integriert werden, jedoch existieren ebenfalls wie bei anderen Bewertungsmethoden Grenzen in der Aggregation von Kriterien und Zusammenfassung von Ergebnissen. Schwierig sind auf Seiten der Bearbeiter neben den grundsätzlichen Anforderungen an Bewertungen - Objektivität, Transparenz, Validität und Reliabilität - vor allem die Festlegung von Systemgrenzen vor und während der Bearbeitung sowie die Ergebnisauswertung und -darstellung. Auf Seiten der Forschung wird intensiv an der Berücksichtigung und Reduktion von Unsicherheiten gearbeitet. Dabei werden verschiedene Arten von Unsicherheiten unterschieden, jedoch beziehen sich Vorschläge von Arbeitsgruppen der SETAC (Society of Environmental Toxicology and Chemistry) für die Behandlung von Unsicherheiten auf Parameterunsicherheit und empfehlen in erster Linie mathematische Instrumente. Eine frühe Einbindung von Akteuren in den Bearbeitungsprozess stellt hier grundsätzlich eine weitere Lösung dar. Einfach umzusetzen ist dies allerdings nur dann, wenn direkte Adressaten oder Nutzer vorhanden sind. Forschungsergebnisse, wie, zu welchem Zeitpunkt und mit welchem Erfolg solche partizipativen bzw. prozessorientierten Ökobilanzen erstellt werden, sind jedoch rar, obwohl sie dringend erforderlich sind.
Kontakt
Dip.-Ing. Sonja Schmidt
Universität Osnabrück
Institut für Umweltsystemforschung (USF)
Lehrstuhl Stoffstrommanagement
Albrechtstraße 28
49076 Osnabrück
Tel.: +49 (0) 541 - 969 - 2429
Fax: +49 (0) 541 - 969 - 2770
E-Mail: sschmidt∂usf.uni-osnabrueck.de
Internet: http://www.usf.uni-osnabrueck.de/
Innovation of Governance: Emerging governance patterns to shape the transformation of electricity systems
Abstract
Sustainability and innovation studies have come up with many thoughtful policy strategies over the last years. Among them are concepts like Constructive Technology Assessment, Strategic Niche Management, Innovation-oriented Environmental Regulation, Green Technology Foresight, Vision Assessment, Transition Management, Time Strategies to name just a few. These concepts contain innovative strategy proposals to be adopted by policy-makers and managers. In most cast cases, however, the conditions for these strategies to be actually implemented in real world policy contexts are not discussed. This, although many aspects of the proposed strategies would imply radical innovations in the context of existing governance regimes. To realise their full potential for actually shaping the course of socio-technical transformation it is therefore necessary to investigate the dynamics and conditions of governance innovation. These need to be related to empirical contexts given by specific actor constellations, policy paradigms, institutional set-up of sectoral and national governance systems, and technical and ecological opportunity structures. The presented PhD project takes three steps into this direction:
It presents a synthetic formulation of strategy requirements for shaping sustainable transformation which are proposed in literatures on socio-technical change and sustainability. These requirements are compiled into the notion of “reflexive governance" which is contrasted with an ideal-typical characterization of "modernist governance" as a still dominant paradigm of governance practice in Western countries. The opposition of the two types forms a starting point to formulate research questions about radical governance innovations as a prerequisite for implementing sustainable innovation policies.
Against this background a co-evolutionary framework for the analysis of governance innovation is developed. The framework combines elements from theories of socio-technical change (multi-level framework, co-evolution of heterogeneous regime elements) with elements from theories of social change (recursiveness of agency and structure, self-organisation) and governance theory (strategic interaction, institutional arrangements, policy windows).
The empirical part of the project applies the analytical framework to investigate the emergence and consolidation of governance patterns to shape the transformation of electricity systems in the Netherlands, Great Britain and Germany. From a first explorative study it can be said that actual governance patterns are remarkably different. Whereas the Netherlands, in their "Energy Transition" project, follow a collective bottom-up approach, Great Britain, in its "Sustainable Energy Strategy", follows an integrated public management approach, and Germany, without any specific strategy, follows a pattern of public struggle and neo-corporatist negotiation. The aim of the study is to identify conditions and mechanisms which explain the specific course of governance innovation in each of these cases. They shall help to formulate robust policy strategies which take into account the specific socio-technical context and respective opportunities for governance innovation.
Kontakt
Jan-Peter Voß
Öko-Institut e.V., Institute for Applied Ecology
Novalisstr. 10
10115 Berlin
Tel.: +49 (0) 30 - 280486 - 62
E-Mail: j.voss∂oeko.de
Risikokonstruktionen in partizipativen Verfahren der Technikfolgenabschätzung
Abstract
Die soziologische Risikotheorie hat in den letzen Jahren immer wieder herausgearbeitet, dass sich Risiken moderner Technologien nicht einfach beobachten lassen, sondern Konstrukte aus Kausalitäten, Werten und Interessen sind. Im Rahmen dieser Arbeit wird der Frage nachgegangen, auf welche Art und Weise partizipative Verfahren der Technikfolgenabschätzung (PTA) in ihrer jeweiligen Struktur und Ausgestaltung auf die Thematisierung von Risiken einwirken.
Aus der soziologischen Risikodebatte werden dazu sieben „Dimensionen der Risikokonstruktion“ abgeleitet:
- Schaden:
bezieht sich auf die thematisierten Werte, hinsichtlich derer Technikfolgen als Schaden angesehen werden. - Legitimation:
hier steht die Frage der Legitimation der in der ersten Dimension betrachteten Werte im Vordergrund. - Kausalität:
die Art und Weise, wie zwischen Technik und Schaden eine Ursache-Wirkung-Beziehung hergestellt wird. - Nicht-Wissen:
der Einfluss unterschiedlicher Formen des Nicht-Wissens auf die Thematisierung von Risiken - Wahrscheinlichkeit:
werden Risiken als Folge des Normalbetriebes, als Unfallrisiken oder als Missbrauchrisiken thematisiert? - Entscheidung:
Die Behandlung von Risiken unter der Entscheider-Betroffenen-Differenz - Risikorelation:
die Einbeziehung von Vermeidungsrisiken als Hintergrundfolie der Einschätzung von Risiken.
Diese Dimensionen werden der Analyse von drei TA Verfahren zugrunde gelegt: dem WZB-Verfahren zu Herbizidresistenz als Experten-Verfahren, dem Dialog-Verfahren „Gentechnik in Niedersachsen“ als Stakeholder-Dialog und der Bürgerkonferenz „Streitfall Gendiagnostik“ in Dresden als Bürgerbeteiligungsverfahren.
Dabei zeigt die Arbeit auf, dass die Art und Weise, wie Risiken in den untersuchten Verfahren thematisiert und damit konstruiert werden, nicht nur mit der verhandelten Technologie zusammen hängen. Starken Einfluss hat dabei auch die Art und Weise, wie die am Verfahren beteiligten Gruppen als Experten, Stakeholder oder „einfache Bürger“ zueinander ins Verhältnis gesetzt werden.
Das WZB-Verfahren hat den Risikokonflikt vor allem als Tatsachenkonflikt behandelt, bei dem Kausalitäten von Wissenschaft definiert und damit die Ansprüche anderer gesellschaftlicher Akteure an die Konstruktion von Risiken klein gehalten wurden. Erreicht wurde dies zum einen durch das Postulat der „normativen Enthaltsamkeit“, das gesamtgesellschaftlich vorherrschende Werte auf Kosten von partikularen Werten dominieren ließ und eine hohe Verrechenbarkeit von Risiken („Normalisierung durch Vergleich“) ermöglichte. Zum anderen durch die Forderung, Risiken kausal begründen zu müssen, was Nicht-Wissen gegen die außerwissenschaftlichen Kritiker ausschlagen ließ. Schließlich wurden Risiken vor allem aus der Entscheiderperspektive verhandelt und Technik durch die Thematisierung von Risiken als Missbrauchsfolgen entlastet.
Der Niedersachsendialog hat die Betroffenen-Entscheider-Differenz und damit den Interessenkonflikt in den Vordergrund gestellt. Werte wurden nicht hierarchisiert sondern einander gegenübergestellt, was partikulare Werte betonte. Damit stand die Suche nach Konsens und Dissens auch im Hinblick auf empirische Fragen im Vordergrund. Das dafür notwendige Aufbrechen wissenschaftlicher Definitionsmacht wurde zum einen durch die Perspektivierung von Positionen erreicht. Zum anderen verlieh die Thematisierung der Glaubwürdigkeit von Expertise anderen Akteuren Zugriff auf die Produktion von Geltung wissenschaftlicher Aussagen jenseits der Wahrheitsfrage. Nicht-Wissen schlug dabei eher gegen die Entscheider aus, was auch zu einer Betonung der Verantwortungsfrage führte. Die Wahrscheinlichkeit von Risiken erschien schließlich eine offene Frage, was auch unbekannten Risiken in das Verfahren zu ihrem Recht verhalf.
Die Bürgerkonferenz hat die Risikodebatte vor allem von der Bewertungsseite aufgerollt. Werten kam dabei durch Konsens der beteiligten Bürger Legitimität zu, was eine Relationierung unterschiedlicher Risiken erlaubte. Gleichzeitig traten Kausalitätsfragen und damit Nicht-Wissen in den Hintergrund, nicht zuletzt indem wissenschaftliche Expertise in Konkurrenz zu anderen Wissensformen, etwa von Betroffenen gestellt wurde, die bei den Bürgern um Beachtung ihrer Argumente werben mussten. Die Bürger wiederum erreichten eine weitgehende Schließung der Debatte durch Betonung der Betroffenenperspektive, die die Missbrauchsmöglichkeit als unvermeidliche Nebenfolge der Technik erschienen ließ. Gleichzeitig wurde damit der Entscheider-Betroffenen-Konflikt aus dem Verfahren weitgehend ausgegrenzt.
Kontakt
Jost Wagner
Münchner Projektgruppe für Sozialforschung e.V.
Dachauer Str. 189
80637 München
Tel.: +49 (0) 89 155760
Mobil: +49 (0) 163 7388216
Fax: +49 (0) 89 1577949
E-Mail: jost.wagner∂sozialforschung.org
Verwaltungsinformatisierung, Vernetzung und kommunale Planungsprozesse. Eine Mikro-Analyse des Electronic Government
Abstract
Das hier vorzustellende - politikwissenschaftliche - Dissertationsprojekt widmet sich den Auswirkungen der Informatisierung von Kommunalverwaltungen auf Prozesse der Planung und Entscheidungsfindung. Hierzu nimmt es eine Perspektive ein, die bisher in der Beschäftigung mit Electronic Government (E-Government) nur wenig Beachtung gefunden hat. Die Untersuchung konzentriert sich - im Gegensatz zu Ansätzen, die E-Government primär als neues Vertriebskonzept für Verwaltungsdienstleistungen begreifen - auf einen spezifischen Aspekt der (maßgeblich internen) Vernetzung, indem sie die Analyse verwaltungsweit integrierter Geographischer Informationssysteme (GIS) zu ihrem Ausgangspunkt macht. Diese Systeme werden sowohl für Planungsaktivitäten, das Management raumbezogener Daten, Informationen und Wissensbestände als auch für Auskunftsdienste und Leistungserbringung eingesetzt. Die verwaltungsweite Vernetzung von GIS erweist sich aufgrund der Querschnittsbedeutung raumbezogener Informationen für die Arbeit kommunaler Verwaltungen als eine entscheidende technische Basis für kommunales E-Government. Veränderungen von Verwaltungspraktiken und der Wissensordnung in Verwaltungen lassen sich somit auch bzw. gerade anhand einer Untersuchungsperspektive, die auf Effekte der GIS-Vernetzung fokussiert, erfassen und analysieren.
In meinem Poster sollen neben der inhaltlichen und methodischen Konzeption der Arbeit auch erste Auswertungen des empirischen Teils meines Dissertationsprojekts vorgestellt werden. In Anlehnung an Ansätze einer „Mikro-Policy-Analyse“ geht es hierbei um die kleinteilige Analyse kommunaler Planungs- und Entscheidungsprozesse. Hierzu werden zwei Fallstudien in deutschen Großstädten (Würzburg, N.N.) durchgeführt, deren methodischen Kern Feldphasen zur teilnehmenden Beobachtung bilden. Ziel ist es, spezifische Praktiken, die mit dem Einsatz von GIS in der (planenden) Verwaltung verbunden sind, zu identifizieren. Ergänzt werden die so gewonnenen Beobachtungen durch die Analyse der Konzeptionen der jeweiligen Informatisierungsprojekte sowie durch Interviews mit Verwaltungsmitarbeitern.
Der - durch die theoretische Analyse technischer Funktionalitäten, Potenziale und Systembeschränkungen notwendigerweise vorinformierte - Blick auf die zu beobachtenden Interaktionen in den und mit den Systemen richtet sich vor allem auf folgende Aspekte:
- GIS als New Media:
Typisierung der kommunizierten Daten, Informationen und Wissensbestände; Identifizierung spezifischer Interaktionsweisen und Nutzungszwecke; Verortung von Anwendungen zwischen den Polen „E-Administration“ und „E-Democracy“ - Workflowmanagement:
Transparenz der Prozesse; Offenheit von Prozessverläufen; Bedeutung der Kategorie Wissen für die Prozessmodellierung; Verhältnis von Prozessen und Verwaltungsstrukturen - Machtpositionen:
Unterschiede hinsichtlich der Möglichkeiten der Systemnutzung; Möglichkeiten der Regulierung der Einflussnahme anderer Akteure - Akteure:
Praktikenrepertoires verwaltungsinterner Nutzergruppen; Interaktionen in externer Kooperation; Internet-basierte Öffnung nach Außen - Qualität des Outputs:
Prägung der Ergebnisse durch die Systemanforderungen und -möglichkeiten; Bewusstsein der Nutzer für technikbedingte Effekte auf die Arbeit
Dieses Material kann schließlich mit den vielfach formulierten Erwartungen an E-Government, durch welches die Verwaltung nicht nur effizienter, effektiver und kostengünstiger, sondern auch bürgernäher, kommunikationsfähiger und insgesamt partizipationsfördernder werden soll, konfrontiert werden. Daneben soll die Untersuchung nicht zuletzt auf ihre Anschlussfähigkeit an bisherige TA-Studien zu E-Government, an die politikwissenschaftliche Verwaltungs- und Technikforschung sowie an die Methodenentwicklung in diesen Bereichen hin befragt werden. Im Zentrum stehen dabei die Mikro-Perspektive der Untersuchung und der von ethnographischen Verfahren inspirierte empirische Teil der Arbeit.
Kontakt
Matthias Werner
Forschungszentrum Karlsruhe GmbH, in der Helmholtz-Gemeinschaft
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Hermann-von-Helmholtz-Platz 1
76344 Eggenstein-Leopoldshafen
Tel.: +49 (0) 721 / 608 - 26397
Fax: +49 (0) 721 / 608 - 26045
Die Kluft zwischen Wissen und Handeln. Politisch-administrative Hemmnisse und institutionelle Defizite bei der Realisierung von nachhaltigen Sanierungen im Bestand
Abstract
Im Rahmen der Postersession des TA-Nachwuchs-Meetings bei der Konferenz NTA1 in Berlin wird am 25.11.2004 das sozialwissenschaftliche Dissertationsprojekt mit dem Arbeitstitel „Die Kluft zwischen Wissen und Handeln. Politisch-administrative Hemmnisse und institutionelle Defizite bei der Realisierung von nachhaltigen Sanierungen im Bestand“ vorgestellt.
Das Poster will über die Zielsetzung und die Forschungsfragen der Arbeit informieren. Ferner werden die Ergebnisse und Erkenntnisse vorgestellt, die sich aus der Bearbeitung von vier Einzelfallbeispielen ergeben haben.
In der Arbeit wird von der Feststellung ausgegangen, dass die gegenwärtigen Entwicklungstendenzen im Handlungsfeld Bauen und Wohnen nicht nachhaltig sind. Über die negativen Trends herrscht in der gegenwärtigen Debatte ebenso Einigkeit, wie über die Notwendigkeit diesen entgegenzuwirken. Die Ziele und Kriterien einer nachhaltigen Entwicklung in den Bereichen Bauen und Wohnen lassen sich in zahlreichen wissenschaftlichen Studien, politischen Absichtserklärungen und kommunalen Leitfäden nachlesen. Man weiß, wo der Weg hinführen soll und ist sich über die Ziele einer nachhaltigen Siedlungsentwicklung weitestgehend einig. Dennoch lässt sich eine Kluft zwischen Wissen und Handeln ausmachen, die Verwirklichung einer nachhaltigen Entwicklung in den Bereichen Bauen, Wohnen und Siedlungsentwicklung weist Defizite auf.
Die Arbeit konzentriert sich auf Bestandssanierungen, zumal den Bemühungen um die Erneuerung und Sicherung von Altbauten und städtischen Altbauquartieren in der Diskussion um Nachhaltigkeit im Handlungsfeld Bauen und Wohnen eine besondere Bedeutung zukommt.
Ziel der Arbeit ist die Identifizierung von Hemmnissen und Defiziten bei der Realisierung von Sanierungen im Bestand. Zudem sollen in der Arbeit Faktoren benannt werden, die eine nachhaltige Entwicklung in diesem Bereich begünstigen. Zum Schluss sollen generalisierbare Einsichten über die Prozesse der Entscheidungsfindung sowie die Einstellungen, Motive und Verhaltensweisen der Entscheidungsträger erlangt werden. Um diese Ziele zu erreichen werden in der Arbeit je zwei Einzelfälle aus dem Bereich Sanierung von Altbaubeständen und Altbauquartieren in den Städten Köln und Ludwigshafen untersucht. Anhand der Fallstudien wird aufgezeigt unter welchen institutionellen, politischen und strukturellen Bedingungen die Sanierungsprojekte realisiert werden. Überdies soll die Bearbeitung der Einzelfälle zur Beantwortung der Forschungsfragen beitragen.
Kontakt
Tobias Woll
Forschungszentrum Karlsruhe GmbH, in der Helmholtz-Gemeinschaft
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Hermann-von-Helmholtz-Platz 1
76344 Eggenstein-Leopoldshafen
Tel.: +49 (0) 721 / 608 - 26876
Fax: +49 (0) 721 / 608 - 26045
Der Patient im Spiegel des technischen Wandels der Arzneimittelversorgung
Abstract
Innerhalb des Pharma-Innovationsprozesses vollzieht sich seit Anfang der 1990er Jahre ein Wandel hin zu biotechnologischen Strategien. Molekularbiologische Erkenntnisse tragen dazu bei, dass mit Hilfe von Modellsystemen molekulare Krankheitsmechanismen aufgeklärt werden können, die als Ansatzpunkt für die Entwicklung neuer Medikamente dienen. Umfangreiche Datenbanken und leistungsstarke Werkzeuge der Bioinformatik erlauben die Analyse großer Datenmengen. Gleichzeitig werden Neuerungen aus dem Bereich der Materialwissenschaften, insbesondere der Chiptechnologie und der Nanotechnologie, auch für den biomedizinischen Bereich relevant. Aus der Kombination dieser Fachdisziplinen werden Durchbrüche zur individualisierten Arzneimittelversorgung durch Pharmakogenetik erwartet, die zu erheblichen Konsequenzen für das Individuum und die Gesellschaft führen.
Zentrale Fragen einer Technikfolgenabschätzung zur Pharmakogenetik sind das Verständnis von Krankheit für das Individuum und die Bedeutung für die Gesellschaft. Es ist zu untersuchen, wie Pharmakogenetik die Quantität, Qualität und Sicherheit sowie die Verfügbarkeit von Medikamenten beeinflussen wird. Auf Ebene des handelnden Individuums stehen Fragen zu Veränderungen im Rollenverständnis zwischen Patient und Arzt im Blickfeld und ihre Auswirkung auf Therapie und Erfolg der medizinischen Intervention.
Pharmakogenetische Untersuchungen ermöglichen die Detektion von Krankheitsanlagen zu einem frühen Zeitpunkt, d. h. oft vor Ausbruch der eigentlichen Erkrankung. Welche Konsequenz hat diese Kenntnis für das Selbstverständnis und die Lebensplanung des betroffenen Individuums, wie beeinflusst es die ihm zur Verfügung stehende medikamentöse Therapie und wie seine Stellung innerhalb der Solidargemeinschaft der Krankenversicherten.
Es wird vermutet, dass pharmakogenetische Verfahren die Arzneistoffentwicklung possitiv beeinflussen, indem sie eine sorgfältigere Auswahl von Patienten und eine individuelle Dosierung entsprechend der genetischen Ausstattung des Patienten gewährleisten. So könnten Medikamente, die in einem heterogenen Kollektiv von Patienten keine oder ungenügende Wirkung gezeigt hatten, erneut einem Screening unterzogen werden. Durch die Begrenzung von neuen Arzneistoffen auf einige Genotypen werden Neuentwicklungen der pharmazeutischen Industrie jedoch seltener einen Blockbuster-Status erreichen können, was zu verstärkten Schwierigkeiten bei der Forschungsfinanzierung durch einen Return of Investment während der Patentlaufzeit eines Medikaments führt. Außerdem führt diese Vorselektion innerhalb der klinischen Prüfung zu einer reduzierten Arzneimittelsicherheit für die Gesamtheit der Patienten, da mögliche unerwünschte Nebeneffekte bedingt durch genetische Variabilität innerhalb des Kollektivs durch klinische Prüfung nicht mehr erkannt wird.
Der Patient wandelt sich in einem Gesundheitssystem, das geprägt ist von immer komplexeren Behandlungsregimes und Diagnoseverfahren vom Empfänger von Gesundheitsleistungen zu einem Co-Produzenten. Selbstmanagement und Mitwirkungsbereitschaft des Patienten sind entscheidend für den Erfolg therapeutischer Maßnahmen. Diese Fähigkeiten müssen künftig systematisch entwickelt werden. Dabei sind all diejenigen angesprochen, die Zugang zu spezifischen Bevölkerungsschichten haben. Somit ergibt sich die Herausforderung, wie neben staatlichen und privaten Initiativen Arbeitgeber und Arbeitnehmervertreter im Sinne einer ganzheitlichen Gesundheitsfürsorge Patientenschulungen als Mittel einer dauerhaften Implementierung einer effizienten Arzneimittelversorgung etablieren können?
Wissenszuwachs auf dem Gebiet der molekularen Diagnose stellt medizinisches Personal und Patienten vor neue Aufgaben. Bereits der korrekte Einsatz von HIVMedikamenten ist nur bei entsprechender vorangegangener Diagnostik medizinisch erfolgreich. Dies könnte jedoch dazu führen, dass die Anwendbarkeit dieser innovativen Medikamente eingeschränkt bleibt auf entwickelte Länder mit speziell geschultem Personal und entsprechender Diagnoseinfrastruktur. Es muss geklärt werden, ob und wie Entwicklungsländern mit einem hohen Anteil an HIV-Infizierten unabhängig von der bereits bestehenden Kostenproblematik von innovativen HIV-Medikamenten profitieren können?
Der Beitrag basiert auf aktuellen TA-Projekten des Fraunhofer-Instituts für Systemtechnik und Innovationsforschung zu „Pharmakogenetik“, „Nachhaltigen Arzneimittelversorgung“ und neuartigen Therapieverfahren wie „Tissue Engineering“ und „Menschlichen Stammzellen“. Anhand konkreter Beispiele wird erörtert welche Entwicklungen im Sinne einer langfristigen Sicherung der Arzneimittelversorgung wünschenswert sind und welche Maßnahmen dazu erforderlich sein werden.
Kontakt
Dr. Sibylle Gaisser
Fraunhofer-Institut für Systemtechnik und Innovationsforschung
Breslauer Str. 48
76139 Karlsruhe
Tel.: +49 (0) 721 / 68 09 - 205
E-Mail: s.gaisser∂isi.fraunhofer.de
Die Gendiagnostik aus der Patientensicht. Integration des „neuen genetischen Wissens“ in den persönlichen Lebensalltag
Abstract
Die genetische Diagnostik stellt über die pränatale Diagnostik einerseits bzw. über die zunehmende Anzahl genetischer Tests andererseits einen neuen, schnell wachsenden Zweig der molekularbiologischen Medizin dar. Für die betroffenen PatientInnen ergeben sich daraus neuartige Entscheidungssituationen in der Schwangerschaft im Allgemeinen bzw. in Zusammenhang zu familiären Erbkrankheiten im Speziellen. Führen diese neuartigen Entscheidungssituationen zur Einstimmung in diese Diagnosemethodiken und somit zu Testergebnissen, ergibt sich hieraus für die Betroffenen ein neues, „molekulargenetisches“ Wissen: Im Falle der gängigen pränatalen Diagnostik ergibt sich ein Wissen über die chromosomale Konstitution des ungeborenen Kindes, im Falle der genetischen Tests ein Wissen über die eigene genetische Veranlagung bzw. über die familiären Zusammenhänge. Molekularbiologische Verständnis- und Vorstellungsprobleme erschweren die Einordnung des neuen genetischen Wissens in die Alltagswelt der Betroffenen.
Sowohl die Entscheidungssituationen als auch das „neue genetische Wissen“ um den eigenen Körper können existenzielle „fragile“ Grenzsituationen darstellen, die von verschiedenen Menschen unterschiedlich wahrgenommen werden. Neue Fragen nach dem Sinn des eigenen Daseins, zum Selbstverständnis bzw. zur Schicksalhaftigkeit der Krankheit werden aufgeworfen. Neue persönliche Lebenswege werden gesucht und oft sieht sich der Betroffene gezwungen, die eigene Identität durch das neue Wissen „neu“ zu strukturieren.
Außerdem wirft die genetische Diagnostik eine Vielzahl von unterschiedlichen Fragen zu zeitlicher Dimensionen auf. So findet z. B. die pränatale Diagnostik in einem fest begrenzten zeitlich vorgegebenen Rahmen statt, der den von der Entscheidung Betroffenen wenig zeitlichen Spielraum lässt. Und genetische Tests zu Erbkrankheiten öffnen einen Zeithorizont, der nicht nur zu bereits verstorbenen Verwandten zurückreicht, sondern auch Auswirkungen auf eventuell zukünftige Generationen hat. Auch die „Integration“ des neuen genetischen Wissens findet in (von Patient zu Patient) unterschiedlich langen Zeitdimensionen statt.
Wir möchten in unserem Vortrag Beispiele zu diesen Themenbereichen diskutieren, aufbauend auf den empirischen Daten, die wir in unserem Projekt („Time as a contextual element in ethical decision-making in the field of genetic diagnosis“ Swiss National Fond) in qualitativen Interviews gewonnen haben. Unser Focus liegt auf der Patientensicht, die sich im Gegensatz zu der Sicht des Arztes in oben genannten Punkten unterscheiden kann. Medizinethisch gesprochen lassen sich z. B. aus der Patientensicht auch neue Implikationen für die Spannungsfelder der Patientenautonomie oder für den Informed Consent ziehen.
Kontakt
Dipl. Biol. Rouven Porz, Dr. Jackie Leach Scully, Prof. Christoph Rehmann-Sutter
Universität Basel
Arbeitsstelle für Ethik in den Biowissenschaften
c/o Institut für Geschichte und Epistemologie der Medizin
Schönbeinstrasse 20
4055 Basel, Schweiz
Tel.: 0041 - 78 - 88 68 152
E-Mail: rouven.porz∂unibas.ch
Converging Technologies. Verbesserung menschlicher Fähigkeiten durch emergente Techniken?
Abstract
Nanotechnologie ist seit einigen Jahren ein für Technikforscher herausfordernder Untersuchungsgegenstand, bei dem Interesse seitens Politik und Wirtschaft einher geht mit einer regen öffentlichen Aufmerksamkeit. Viele der Versprechungen ihrer Entwickler und Fürsprecher sind so faszinierend, dass ihr von manchen eine epochale Bedeutung (z. B. als Grundlage einer „dritten industriellen Revolution“ oder der „nächsten Welle technischer Innovation“) zugesprochen wird. Zugleich haben die der Nanotechnologie zugeschriebenen technischen Möglichkeiten und Visionen und ihre mediale und künstlerische Reflexion bereits frühzeitig eine breitere Auseinandersetzung mit Chancen und Risiken dieser Techniken und ihrer politischen Gestaltung und Kontrolle ausgelöst.
Ein spezifischer Fragenkomplex erwächst aus der Nutzung von Nanotechnologie in der Medizin. Reichen die hier diskutierten Anwendungsmöglichkeiten von neuen diagnostischen Verfahren über präventive und therapeutische Ansätze bis hin zu teils noch utopisch erscheinenden Möglichkeiten, die physische und psychische Ausstattung des Menschen zu verbessern, so stehen doch vor allem Ansätze zur technischen Wiederherstellung oder Verbesserung motorischer, sensorischer oder kognitiver Fähigkeiten („bionic human“, „konvergierende Techniken“, NBIC) im Mittelpunkt öffentlichen und politischen Interesses. Dies spiegelt sich zunehmend auch in forschungspolitischen Aktivitäten wider.
Vor allem von der - vielfach beschworenen - Konvergenz der vier „NBIC“-Aspekte Nanotechnologie, Biotechnologie, Informationstechnik und Kognitionswissenschaften erhofft man sich neue Möglichkeiten im Bereich der Wiederherstellung und Verbesserung menschlicher Fähigkeiten. Stark vereinfacht dargestellt werden Nano- und Biotechnologie als die antreibenden Kräfte der materiellen Umsetzung sowie des technischen Anschlusses von Artefakt und Nervensystem gesehen, während die Kognitionswissenschaften und die Informationstechnik Beiträge zur Optimierung des „Wie“ der Signalübertragung und -verarbeitung leisten sollen. Gegenwärtig wird nach Möglichkeiten geforscht, menschliche Sinne, wie den Gehör-, den Seh-, oder den Geruchsinn, technisch so nachzubilden, dass man sie in Form einer Prothese dem menschlichen Körper zur Verfügung stellen kann. Als Königsweg für die Nutzung dieser Prothesen gilt deren direkter Anschluss an das Nervensystem. In aktuellen Entwicklungen werden hierzu erste Versuche unternommen.
In einigen - technologiegetriebenen, von militärischer Nutzung wesentlich mitbestimmten - Forschungsvorhaben werden auch ambitioniertere, über den therapeutischen Aspekt hinausgehende Anwendungen untersucht und deren Entwicklung finanziert. Implantate, mit denen man das Spektrum des menschlichen Sehens verbessern kann, z. B. bezüglich des wahrnehmbaren Wellenlängenbereichs, oder auch so genannte „Brainchips“, die die Leistungen des Gehirns verbessern, können hier als Beispiele angeführt werden. Interessanter Weise werden diese aus der heutigen Sicht doch weiter in der Zukunft liegenden technischen Anwendungen, die die Verbesserung der Sinnesleistungen gesunder Menschen in Aussicht stellen, schon heute in populärwissenschaftlichen Artikeln diskutiert.
In dem Vortrag werden aktuelle forschungspolitische Entwicklungen und ihre Zielsetzungen vorgestellt. Dabei soll es zunächst weniger darum gehen, die technische Realisierbarkeit dieser Visionen zu bewerten, als vielmehr erste Fragen nach dem "Quo Vadis?“, nach ethischen und sozialen Aspekten sowie Folgen für den Bedarf an wissenschaftlicher Forschung zu stellen.
Kontakt
Torsten Fleischer, Dr. Michael Decker
Forschungszentrum Karlsruhe, in der Helmholtz-Gemeinschaft
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Hermann-von-Helmholtz-Platz 1
76344 Eggenstein-Leopoldshafen
Tel.: +49 (0) 721 / 608 - 24571
Fax: +49 (0) 721 / 608 - 24806
Verbraucherschutzpolitik in einer globalisierten Welt
Abstract
Problemstellung:Bei Lebensmitteln werden Verbraucher mit Ängsten und Hoffnungen der Globalisierung und des technischen Fortschritts unmittelbar und alltäglich im Rahmen der Kaufentscheidungen konfrontiert. Daher ist die Konfrontation mit und der Bedarf an Informationen im Anwendungsfall „Lebensmittel“ besonders ausgeprägt. Die Verbraucherschutzpolitik erscheint damit als geeignetes Fallbeispiel zur Analyse der Auswirkungen von Risikokommunikation auf Entscheidungsprozesse.
Zielsetzung:Die Zielsetzung des Konferenzbeitrages besteht darin, Bedeutung und Wirkungsweise von Risikoinformationen und Kommunikation für eine selbst bestimmte Konsumentenentscheidung darzustellen und damit Anforderungen für politische Entscheidungssysteme im Hinblick auf eine angemessene Verbraucherschutzpolitik abzuleiten.
Ergebnisse:Die wissenschaftliche Risikobewertung nimmt sowohl in den internationalen Handelsvereinbarungen (SPS-Abkommen der WTO) als auch im Rahmen des Reformprozesses der europäischen Lebensmittelsicherheitspolitik einen zentralen Stellenwert für eine transparente und rationale Verbraucherschutzpolitik ein.
Eine entsprechende wissenschaftsbasierte institutionelle Umsetzung erfolgt in der EU durch die neue Europäische Lebensmittelbehörde und korrespondierende Verantwortlichkeiten auf Ebene der Mitgliedsstaaten, z. B. in Deutschland durch das neue Bundesinstitut für Risikobewertung.
Wissenschaftsbasierte Verbraucherschutzpolitik erfährt ihre Grenze durch die Informationsverarbeitung des Verbrauchers, dessen souveräne Entscheidung über individuelles Risikoverhalten gehemmt wird durch
- Unverständlichkeit und fehlendem Handlungsbezug bei der Risikobewertung.
- Widersprüchliche Risikobewertung durch die Wissenschaft oder unterschiedliche Risikowahrnehmung durch Wissenschaftler und Laien.
- Vertrauen in staatliche Vorsorge, so dass bei fehlendem Wissen kein zielgerichtetes individuelles Risikomanagement möglich ist.
Die Fähigkeit und die Bereitschaft, Informationen aufzunehmen, zu verarbeiten und in eigene Handlungen umzusetzen sind demnach Kernfaktoren für den Erfolg einer am Leitbild des souveränen Konsumenten ausgerichteten Verbraucherschutzpolitik.
Aus unterschiedlichen empirischen Studien [1] auf der Basis von Tiefeninterviews zur Informationsaufnahme und -verarbeitung lassen sich folgende Ergebnisse herausstellen:
- Die Bereitschaft sich zu informieren wird auf Seiten der Verbraucher durch den Wunsch eingeschränkt, das überwältigende Angebot an Lebensmitteln sorglos zu nutzen und Informationen über Gesundheitsrisiken zu meiden. Es besteht ein Konflikt zwischen Informiertheit und unreflektiertem Genuss.
- Der Fähigkeit zur Informationsaufnahme und -verarbeitung steht das Problem der Informationsflut gegenüber. Da die Validität wissenschaftlicher Information vom Verbraucher selbst nicht beurteilt werden kann, werden Strategien der Vereinfachung oder Verdrängung entwickelt.
- Die Nutzung von Informationen für das Risikoverhalten bedarf klarer Handlungsempfehlungen. Handlungsänderungen werden dabei nicht nur über rein sachbezogene gesundheitliche Aspekte von Lebensmittelrisiken bestimmt, sondern werden im umfassenden Kontext soziologischer und psychologischer Faktoren realisiert.
Auf Basis dieser Ergebnisse zum Informationsverhalten lassen sich zwei grundsätzliche politische Strategien für wirkungsvolle Risikokommunikation ableiten:
- Aufklärung unterstützt eigenständiges Verbraucherverhalten dann, wenn die genannten widersprüchlichen verhaltensbestimmenden Faktoren berücksichtigt werden. Insbesondere die Bereitstellung konkreter Handlungsempfehlungen ist effektiv, wenn auch die psycho- und soziologischen Aspekte der Ernährung berücksichtigt werden.
- Der Aufbau von Glaubwürdigkeit unterstützt Vertrauen in Institutionen und damit den passiven Wunsch, keine eigene Entscheidung treffen zu müssen.
In der Anwendung auf die bestehende Lebensmittelpolitik in der EU und Deutschland wird abschließend identifiziert, welche realen Spielräume es für diese Ansätze gibt, welche Defizite und damit welches Verbesserungspotenzial existieren.
In der Anwendung auf die bestehende Lebensmittelpolitik in der EU und Deutschland wird abschließend identifiziert, welche realen Spielräume es für diese Ansätze gibt, welche Defizite und damit welches Verbesserungspotenzial existieren.
Anmerkung
[1] Z.B. Gutachten für das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (2003): Ansätze moderner Verbraucherinformation. Berlin. Arbeitskreis Folsäure und Gesundheit (2003): Ansätze zur Verbesserung der Folsäureversorgung in Deutschland durch kommunikative Maßnahmen. Empirische Studie im Rahmen eines Projektes in Zusammenarbeit mit dem Arbeitskreis Folsäure und Gesundheit.
Kontakt
Dr. Johannes Simons
Rheinische Friedrich-Wilhelms Universität Bonn
Institut für Agrarpolitik, Marktforschung und Wirtschaftssoziologie
Nussalle 21
53115 Bonn
E-Mail: simons∂agp.uni-bonn.de
Dr. Bettina Rudloff
Rheinische Friedrich-Wilhelms Universität Bonn
Institut für Agrarpolitik, Marktforschung und Wirtschaftssoziologie
Nussalle 21
53115 Bonn
E-Mail: rudloff∂agp.uni-bonn.de
Biofakte - Die technikphilosophischen Probleme der lebenden Artefakte für die fragile Anthropologie des Menschen
Abstract
Der Begriff „Biofakt“ besteht aus der Zusammenfügung von „Artefakt“ und „bios“ (gr.: Leben). Er ist ein Neologismus, der ein terminologisches Niemandsland besiedeln soll. Als natürlich-künstlicher Begriff bezeichnet er natürlich-künstliche Mischwesen, die durch zweckgerichtetes Handeln in der Welt sind, aber dennoch selbsttätig wachsen können (Karafyllis 2003). Wachstum wird dabei als zentrale Lebenseigenschaft vorausgesetzt. Biofakte wachsen und leben, aber sie tun dies nicht uneingeschränkt um ihrer selbst willen.
Damit ist auch eine These formuliert, die es im Zeitalter der technischen Reproduzierbarkeit anzugreifen gilt. Die von Aristoteles prominent vertretene These lautet, daß dasjenige, was wächst, Natur ist. Auch Leben wäre demnach immer Natur. Dasjenige, was von außen bewegt wird, was nicht wächst, kann dagegen als Technik gelten. Diese Unterscheidung zwischen Natürlichem und Künstlichem kommt auch unseren gegenwärtigen Intuitionen entgegen.
Aber gilt das heute, angesichts neuer Techniken wie Zellkultur, Organtransplantation, Reproduktionsmedizin, Gentechniken und computerbasierter Reproduktionstechnik wie der Simulation noch?
Biofakte problematisieren in corpore einen Wachstums- und einen Bewegungsbegriff, der als Unterscheidungsmerkmal zwischen Natur und Technik dienen soll. Denn je nachdem, wie stark man das Wachstum bewußt provozieren, imitieren oder simulieren kann, können derartige Wesen mehr oder weniger technische Anteile aufweisen. Hier besteht Systematisierungsbedarf, der im Rahmen einer Biotechnikphilosophie geleistet werden sollte.
Die Biofaktizität bleibt nicht nur im Bereich der Objekte und Dinge. Auch der Mensch als Subjekt muß sich zu derartig gestalteten Lebewesen verhalten und sich positionieren. Dies ist die Herausforderung für die gegenwärtige Anthropologie und Technikphilosophie.
Vor dem Hintergrund der philosophischen Anthropologie wird gegenwärtig versucht, den Menschen als Mischwesen zwischen Techniknutzer und Naturwesen zu fassen. Man spricht beim kulturellen Selbstentwurf des Menschen auch von „Hybrid“ (Latour 1995). Hybridität und Biofaktizität des Lebewesens meinen nicht dasselbe, so meine These. Hybridität ist ein ontologischer und anthropologischer Begriff, Biofaktizität ein epistemologischer. Der Mensch als Hybrid zwischen Techniknutzer und Naturwesen bezeichnet damit sich selbst, seinen Selbstentwurf, verbunden mit einer Geschichte der Menschheit, der Geschichte seiner Herkunft, sein eigenes Gewachsensein. Das Biofakt zeigt den Fremdentwurf an, die Gründe, warum man für die Zwecke anderer wachsen und sich reproduzieren sollte. Der Begriff „Biofakt“ koppelt die Vor dem Hintergrund der philosophischen Anthropologie wird gegenwärtig versucht, den Menschen als Mischwesen zwischen Techniknutzer und Naturwesen zu fassen. Man spricht beim kulturellen Selbstentwurf des Menschen auch von „Hybrid“ (Latour 1995). Hybridität und Biofaktizität des Lebewesens meinen nicht dasselbe, so meine These. Hybridität ist ein ontologischer und anthropologischer Begriff, Biofaktizität ein epistemologischer. Der Mensch als Hybrid zwischen Techniknutzer und Naturwesen bezeichnet damit sich selbst, seinen Selbstentwurf, verbunden mit einer Geschichte der Menschheit, der Geschichte seiner Herkunft, sein eigenes Gewachsensein. Das Biofakt zeigt den Fremdentwurf an, die Gründe, warum man für die Zwecke anderer wachsen und sich reproduzieren sollte. Der Begriff „Biofakt“ koppelt die Möglichkeiten des Hybridseins an faktische Gegebenheiten der technischen Einflußnahme des Wachsens.
Biofakte und Artefakte sind beide künstlich geschaffene Entitäten. Biofakte stehen damit als Mittelglied in der Trias „Artefakte - Biofakte - Lebewesen“, die die Polarität zwischen Technik- und Naturhaftigkeit von Entitäten beschreibt. Im Gegensatz zu Artefakten bleiben Biofakte ihr Leben lang prozeßgebunden. Prothesen wie z. B. Herzschrittmacher und künstliche Augenlinsen, die auch als technischer Eingriff in unserer eigenen Natur gelten können, rechtfertigen noch nicht die Rede vom Biofakt. Sie setzen, wie die Imitation, an der fertig gewachsenen, der erwachsenen, Form an. Eine noch zu entwickelnde Phänomenologie des Wachstums (Karafyllis 2005) müßte jedoch verschiedene Formen der Veränderung im und am Lebewesen für eine Biotechnikphilosophie fruchtbar machen. Die Diskussion, ob es sich bei einem Lebewesen um ein Biofakt oder nicht handelt, beginnt daher nicht bei einer technischen Hülle, die es argumentativ zu durchbrechen gilt, sondern umgekehrt: Eine natürliche Hülle ist es, die den technischen Eingriff im Lebewesen oder auch in der Landschaft verschleiert. Die vormals als außen gedachte Technik wird verstärkt auch nach innen, in die innere Natur des Menschen verlagert. Dabei ist noch ungeklärt, ob diese Verlagerung ins Innere dazu führen könnte, daß wir uns selbst nicht mehr als der technischen Welt gegenüber definieren können, sondern uns als technisch unvollkommenes Biofakt im Vergleich zu den funktional optimierten technischen Artefakten begreifen werden.
Wenn wir die anthropologische These ernst nehmen, daß der Mensch neben dem Werkzeugnutzer und Techniker immer auch Naturwesen ist, dann muß er und sie diese Naturanteile für ein gelingendes Leben auch in sich wiederfinden. Auch die Ambivalenz, in der uns Natur gleichzeitig als versorgend und zerstörend gegenüber tritt, mag dazu gehören. Das „Biofakt“ soll die produktive Spannung zwischen lebender Entität und Identität angesichts der aktuellen technischen Möglichkeiten begrifflich und konzeptionell neu beleben und den Diskurs um den Lebensbegriff an die Technikdebatte in der Philosophie anbinden. Schließlich geben die Bio-, Informations- und Kommunikationswissenschaften mit ihren Methoden und Produkten, den Biofakten und Artefakten, eine moderne Antwort auf die anthropologische Frage, was denn der Mensch sei. Er ist fragil.
Vergessen darf man bei dieser Antwort freilich nicht, daß sie durch eine Frage provoziert wurde, die im Geist einer Wissenschafts- und Technikkultur gestellt wurde. Ergänzende Fragen zu stellen, die die Hybridität des Menschen als Techniknutzer und Naturwesen perspektivisch einholen, könnten der Fragilität ihre Bedrohlichkeit nehmen.
Literatur
Böschen, S. und Wehling, P. (2004):
Wissenschaft zwischen Folgenverantwortung und Nichtwissen. Aktuelle Perspektiven der Wissenschaftsforschung: Wiesbaden
Karafyllis, N. C. (Hg.) (2003):
Biofakte. Versuch über den Menschen zwischen Artefakt und Lebewesen: Paderborn.
Karafyllis, N. C. (Hg.) (2005):
Phänomenologie des Wachstums: Paderborn (in Vorber.).
Latour, B. (1995):
Wir sind nie modern gewesen. Berlin.
Begrenzte Auswahl? Praxis und Regulierung der Präimplantationsdiagnostik im Ländervergleich
Abstract
Lässt sich die Anwendung umstrittener Verfahren der modernen Biomedizin durch entsprechende rechtliche Vorgaben in ethisch vertretbaren Grenzen halten? Diese Frage steht mit jeder neuen Meldung über Fortschritte der biomedizinischen Forschung unmittelbar auf der Tagesordnung. Sie war und ist auch bestimmend für die politische Diskussion um das nach derzeit geltendem Recht in Deutschland verbotene Verfahren der so genannten Präimplantationsdiagnostik (PID). Die PID wird im Rahmen der künstlichen Befruchtung eingesetzt, um menschliche Embryonen auf Anlagen für eine genetisch bedingte Erkrankung zu untersuchen und „positiv“ getestete Embryonen auszusondern. Zu der Frage, ob durch geeignete rechtliche Maßnahmen die Anwendung der PID wirksam auf ein eng definiertes Spektrum von Fällen (z. B. besonders schwere erbliche Erkrankungen) eingeschränkt werden kann, hat das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) eine international vergleichende Untersuchung durchgeführt. Aufgezeigt werden die Reichweite und Grenzen verschiedener Regulierungsmodelle in sieben ausgewählten Ländern sowie die Schwierigkeiten der Eingrenzung der Praxis gegenüber Nutzungsansprüchen von Betroffenen und den sich ständig weiterentwickelnden gendiagnostischen Möglichkeiten.
Kontakt
Dr. Leonhard Hennen, Dr. Arnold Sauter
Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB)
Neue Schönhauserstr. 10
10178 Berlin
Tel.: + 49 (0) 30 / 28491 - 108
Fax: + 49 (0) 30 / 28491 - 119
E-Mail: hennen∂tab-beim-bundestag.de
Internet: http://www.tab-beim-bundestag.de
Gesellschaftliche Gefährdungspotentiale durch weltweite Vernetzung
Abstract
Durch die Zunahme der Leistungsfähigkeit und der Kapazität der Verkehrsnetze sowie durch die rasante Verbreitung der Informations- und Kommunikationsmedien sind in den letzten Jahrzehnten weltweite Vernetzungsprozesse vorangetrieben worden. Die Geschwindigkeiten und Kapazitäten für den Austausch von Rohstoffen, Waren, Dienstleistungen, Personen und Informationen haben sich, teils um Größenordnungen, erhöht, die Kosten sind entsprechend gesunken. Diese starke Zunahme der weltweiten Vernetzung zeigt sich z. B. an der Entwicklung des Weltaußenhandels, der in den vergangenen Jahrzehnten fast zwanzig mal (!) schneller gewachsen ist als die übrige Wirtschaft. Damit geht eine zunehmende wirtschaftliche Arbeitsteilung und eine Zunahme gesellschaftlicher Ausdifferenzierung einher. Im produzierenden Gewerbe sind die Wertschöpfungsketten oft weltweit verteilt.
Neben den hier nicht betrachteten ökologischen Risiken gibt es eine Reihe von gesellschaftlichen Risiken, die aus dieser zunehmenden Vernetzung erwachsen, wobei man unmittelbare und mittelbare Gefahrenpotentiale unterscheiden kann.
Zu den unmittelbaren, direkten Gefahrenpotentialen gehört, dass sich mit den Austauschprozessen in einer vernetzten Welt auch Bedrohungen, die früher regional begrenzt geblieben wären, rasch weltweit ausbreiten. Krankheiten wie AIDS oder SARS konnten auf diese Weise weltweite Bedeutung erlangen. Entsprechendes gilt für tierische Erkrankungen (z. B. Schweinepest, Geflügelgrippe oder BSE), aber auch für elektronische Viren (Computer, Mobiltelefone), für den Terrorismus und die organisierte Kriminalität. Erschwerend kommt hinzu, dass länderübergreifende Regulierungen und Kontrollen oft noch nicht die nationalstaatlich üblichen Standards erreicht haben, und dass gerade aufgrund der zahlreichen, oft unüberschaubaren internationalen Verflechtungen Stoffströme oder Produkt-„Weltlinien“ nur schwer nachzuvollziehen sind.
Ein Beispiel eines mittelbaren Gefahrenpotentials weltweiter Vernetzung ergibt sich daraus, dass insbesondere die IK-technische Vernetzung zu einer starken Beschleunigung vieler Entwicklungen beiträgt. In fast allen gesellschaftlichen Bereichen verkürzen sich die Innovations- und Produktionszyklen. Diese Beschleunigung stellt für unterschiedliche Akteure eine Gefährdung bzw. eine Herausforderung dar. Unternehmen sind z. B. einem wachsenden internationalen Wettbewerbsdruck ausgesetzt und müssen sich immer schneller auf die Umstrukturierung von Arbeitsprozessen einstellen. Mit steigendem Wettbewerbsdruck gewinnen zudem ökonomische Fragen an Bedeutung und verdrängen andere Aspekte gesellschaftlichen und kulturellen Lebens. Von Individuen wird ständige Flexibilität und lebenslanges Lernens erwartet - was zu einer „Corrosion of Character“ (Richard Sennett) führen kann. Die raschen Veränderungen und die Ökonomisierung des Lebens kann schließlich in Gesellschaften, die noch auf traditionalen Werten aufbauen, zu erheblichen Spannungen führen. Der islamistische Terrorismus hat seinen Nährboden auch in diesem Milieu.
Auch die TA ist von den sich verkürzenden Produktions- und Innovationszyklen betroffen. Denn insbesondere die prospektive TA steht vor dem Problem, in immer kürzeren Zeiten Technologien bewerten zu müssen. Zugleich sind in einer vernetzten Welt die Folgewirkungen von Technologien immer schwieriger zu überblicken.
Diesen Gefährdungspotentialen ist schwer zu begegnen und es sind je individuelle Lösungsansätze zu erarbeiten. Allgemein kann man jedoch sagen, dass teils technische Innovationen behilflich sein können, teils Änderungen der politischen Rahmenbedingungen gefordert sind. So können z. B. die Lebenswege von Produkten durch Kennzeichnungen mithilfe von RFID-Chips transparenter gemacht werden. In den Bereichen Sicherheit sowie Lebensmittel- und Verbraucherschutz wird man Fortschritte nicht ohne verbesserte internationale Zusammenarbeit und international bindende Übereinkünfte erreichen können.
Kontakt
Dr. Dr.-Ing. (des.) Christian Berg
Lehrbeauftragter der TU Clausthal
Wilhelmstr. 103
72074 Tübingen
E-Mail: christian.berg∂tu-clausthal.de
Computersimulation als Instrument der Technikentwicklung - fragile oder stabile Weltkonstruktion?
Abstract
Mit dem rasanten Anstieg preisgünstig verfügbarer Rechenkapazität hat sich die Computersimulation als zentrales Werkzeug der Technikentwicklung etabliert. Von der Fabriksimulation bis zur Festigkeitsprüfung, von Umformprozessen bis hin zu Verbrennungen und Strömungen: In allen Technikfeldern dienen computergestützte Simulationen als Grundlage für die Gestaltung technischer Systeme.
In nie zuvor gekannter Weise erschließt dabei die Simulation Detailwissen über physische Prozesse. Im „Computerlabor“ können Experimente zum Verhalten von Artefakten durchgeführt werden, bevor noch ein einziger „echter“ Prototyp existiert. Die dabei gewonnen Ergebnisse gehen weit über das hinaus, was im Real-Experiment messbar ist und was althergebrachte Faustformeln der Ingenieurwissenschaften lieferten. Die Verläufe sämtlicher physikalischer Größen wie Spannung oder Geschwindigkeit lassen sich per Knopfdruck aus der Simulation ermitteln. Darüber hinaus bieten die anschaulichen Visualisierungen der Ergebnisse von Computersimulationen eine ganz neue Möglichkeit, die Ergebnisse technischen Berechnungen an Nicht-Experten zu vermitteln.
Angesichts der zentralen Bedeutung von Computersimulation für die moderne Technikentwicklung ist die Frage nach den Eigenschaften dieser Form der Generierung technischen Wissens auch aus Sicht der TA von Interesse. Denn wie „Soziales“ mit „Technischem“ im Verlauf einer Technikgenese verwoben wird und damit wie fragil oder stabil das entstandene Gebilde ist und wie es beeinflusst werden kann, hängt immer auch davon ab, wie technisches Wissen gewonnen wird.
In meinem Beitrag wird daher ein Ansatz dafür vorgestellt, die Charakteristika simulationsbasierter Technikentwicklung als eine spezifische Weise der sozialen Formung von Technik zu beschreiben.
Im Sinne der TA wird dabei nach den Konsequenzen für die Gesellschaft gefragt:
- Welche neuen Möglichkeiten, aber auch welche Gefahren bringt diese Form der Wissensgenerierung für die Gestaltung technischer Systeme mit sich?
- An welchen Stellen stabilisiert Computersimulation das Wechselspiel sozialer und technischer Strukturen und wo weicht sie bisher verlässliche Zusammenhänge auf?
Technik wird - so die These - mit Simulation punktgenauer auf spezifische Zwecke hin zurichtbar. Damit wird es besser möglich, bestimmte Anforderungen zu erfüllen und extrem ressourceneffiziente Technik zu entwickeln. Gleichzeitig sind solche hoch-optimierten technischen Systeme jedoch fragiler. Sie sind stärker darauf angewiesen, dass die der Modellierung zugrundeliegenden Annahmen zutreffen, und wenig robust gegenüber Veränderungen der Randbedingungen.
Wie ausgeprägt diese Fragilisierung durch Simulation ist, hängt jedoch - so die These - davon ab, auf welche Weise im Verlaufe der Modellierung Wissen aufgenommen wurde. Um diesen Zusammenhang näher zu fassen, wird eine Parallele zur Informatik gezogen. Hier wurden, ausgelöst von der „Softwarekrise“, Ansätze entwickelt, den Prozess der Formalisierung von Weltausschnitten, mit dem jede Softwareentwicklung beginnt, bewusst als Realitätskonstitution statt als neutrale Realitätsabbildung zu begreifen. Die Einbeziehung von Nutzerinnen in diesen Prozess wird als Voraussetzung für die Stabilität des neu geschaffenen Stücks Wirklichkeit begriffen.
In dem Beitrag wird dafür plädiert, ein ähnlich „konstruktives“ Verständnis von simulationsbasierter Technikentwicklung zu erarbeiten. Ein zentrales Element dieses Ansatzes wird es sein, Technikentwicklung auch weiterhin für lokales, kontextgebundenes und schwierig formalisierbares Wissen offen zu halten. Unter dieser Voraussetzung kann, so wird argumentiert, Simulation maßgeblich dazu beitragen, sozio-technische Systeme zu stabilisieren.
Kontakt
Dr. phil. Philine Warnke
Fraunhofer ISI
Abteilung Innovationen in der Produktion
Tel.: + 49 (0) 721 / 68 09 - 319
Fax: + 49 (0) 721 / 68 09 - 131
E-Mail: p.warnke∂isi.fraunhofer.de
Internet: http://www.isi.fhg.de/pi/mitarbeiter/pw.htm
Neue Medien als demokratiefördernde Plattformen: Online Deliberation auf dem Prüfstand
Abstract
Die Fragilität demokratischer Gesellschaften eröffnet sich in Europa vor dem Hintergrund rückläufiger Wahl- und Abstimmungsbeteiligungen. Der Interessensverlust der BürgerInnen an institutionalisierter Partizipation ist evident. Coleman (1998) begründet diese Entwicklung mit dem Begriff der „virtuellen Deliberation“, die vornehmlich zwischen gesellschaftlichen Eliten (wie ExpertInnen, PolitikerInnen und JournalistInnen) passiert und den Ablauf von Diskursen über europäisch relevante Themen bestimmt. Dieser Problemkomplex ist vor allem im Kontext einer erweiterten Europäischen Union von tragender Bedeutung und manifestiert sich im Ausschluss von BürgerInnen von der politischen Mitgestaltung. Europäische Regierungen und die Institutionen der Europäischen Union erhoffen mittels neuer Informations- und Kommunikationstechnologien (IKT) dieser zunehmenden Entfremdung von BürgerInnen vom öffentlich-politischen Leben entgegenwirken zu können und so die Etablierung einer „europäischen Öffentlichkeit“ voranzutreiben. Die Einbindung der „Basis“ in wichtige europäische Entscheidungen soll hierbei in zweierlei Form realisiert werden: Online Diskussionen, die sich mit grundlegenden Fragen über die Zukunft der Europäischen Union auseinandersetzen, bilden gemeinsam mit online Konsultationen den Kern der EU-Initiative „Ihre Stimme in Europa“ (http://europa.eu.int/yourvoice), die zu einer aktiven Politikgestaltung einlädt. Die bloße Schaffung von digitalen Diskursplätzen scheint aber zu wenig ausreichend für eine breit angelegte Wiederbelebung der politischen Öffentlichkeit. Darüber hinaus bedarf es der kritischen Begleitforschung hinsichtlich des demokratischen Potenzials derartiger Initiativen, um das „Projekt der elektronischen Demokratie“ als komplementäre Beteiligungsform auf Dauer etablieren zu können. Ausgehend vom Begriff der Deliberation, die als wesentliche Säule und Prämisse für jede aktive und lebendige Demokratie verstanden wird, wurden mit dem Forschungsprojekt „Europeans have a Say: Online Debates and Consultations in the EU“ [1] zwei wesentliche Untersuchungsziele gesetzt: Erstens, die Durchführung von empirischen Untersuchungen in Form quantitativen Inhaltsanalysen hinsichtlich des deliberativen Charakters der Talkboard-Debatten zwischen den DiskutantInnen. Zweitens, die Durchführung einer „Impact-Abschätzung“ bezüglich der Integration der BürgerInnenvorschläge in EU-Policy Formulierungen bzw. Evaluierungen. Die Identifikation von deliberativen Prozessen bzw. die „Übersetzung“ des Begriffs Deliberation [2] per se in empirisch fass- und interpretierbare Kategorien scheint unabdingbar, wenn das demokratiepolitische Potenzial neuer Medien zur Diskussion steht. Im Vordergrund stehen v.a. qualitative Aspekte, wie kritisch-rationaler Diskurs, Ausgewogenheit in der Argumentation, Bezugnahme auf Ereignisse mit europäischer Relevanz u. a. Der Grad an Interaktivität zwischen den DiskussionspartnerInnen und die Verwendung von rationalen Argumenten sind hierbei wichtige Ausgangspunkte. Dieser Beitrag umfasst eine Analyse von Online Debatten, die im Rahmen der vorgesellten EU Initiative unter dem Titel „Die Zukunft Europas“ geführt wurden. Die Kernergebnisse dieser Inhaltsanalyse sind vor allem im Zusammenhang mit der Frage nach einer breiten Einbindung von BürgerInnen in die politische Meinungs- und Willensbekundung durch IKT interessant. Die Untersuchung verdeutlicht zum einen das Potenzial als auch die Grenzen von online Deliberation. Ausgehend von der Annahme, dass es durch das Internet zu einer „Massendeliberation“ kommen kann, zeigte sich in diesem Fallbeispiel, dass die politischen Debatten wiederum von „Eliten“ dominiert sind, die sich durch hohes Fachwissen auszeichnen. Vor diesem Hintergrund ist die Rolle des Internets als Plattform für politische Willens- und Meinungsbildung bzw. als Hoffnungsträger für die Wiederbelebung der politischen Öffentlichkeit, in Frage zu stellen.
Anmerkungen
[1] Das Projekt wird im Rahmen des Forschungsprogrammes NODE (New Orientations for Democracy in Europe) vom österreichischen Bildungsministerium unterstützt.
[2] Siehe etwa die Verwendung des Begriffs bei Habermas, Bohman, Fishkin, Dryzeck etc.
Kontakt
Mag. Roman Winkler, MSc (LSE)
Österreichische Akademie der Wissenschaften (ÖAW)
Institut für Technikfolgen-Abschätzung (ITA)
Neue Informations- und Kommunikationstechniken aus Sicht des Vorsorgeprinzips
Abstract
Die Gesellschaft muss neue Instrumente entwickeln, um die durch Anwendung der Technik induzierten Risiken früh genug zu antizipieren. Im geplanten Vortrag soll das Vorsorgeprinzip als ein möglicher Ansatz dazu diskutiert werden.
Das Vorsorgeprinzip ist seit den 70er Jahren in der Umweltschutzgesetzgebung verschiedener europäischer Länder verankert und hat seither international an Bedeutung gewonnen. Es ist Bestandteil internationaler Abkommen für bestimmte Umweltschützgüter wie Nordsee, Ozonschicht, Biodiversität und für die menschliche Gesundheit. Man hofft mit Hilfe des Vorsorgeprinzips Risiken, welche wissenschaftlich nicht abschliessend geklärt sind und wohlmöglich schwerwiegende und irreversible Folgen haben, vermeiden zu können.
Im Auftrag des schweizerischen Zentrums für Technologiefolgen-Abschätzung (TA-Swiss) haben wir an der Eidgenössischen Materialprüfungs- und Forschungsanstalt (EMPA) das Vorsorgeprinzip in der Informationsgesellschaft im Hinblick auf die Gestaltung der Informations- und Kommunikationstechnologien (IKT) untersucht. Informationsgesellschaft ist das zukünftige Ergebnis eines gesellschaftlichen Veränderungsprozesses, den der breite Einsatz von IKT bewirken wird. Mit anderen Worten: Die Informationsgesellschaft ist ein noch weitgehend offenes Szenario. Die heutige Verbreitung von persönlichen Computern, Internet-Zugängen und Mobiltelefonen markiert nur den Anfang einer Entwicklung, die durch fortschreitende Miniaturisierung, Vernetzung, Einbettung, Verbilligung und Konvergenz von IKT sowie durch deren Durchdringung unseres Alltags gekennzeichnet ist. Aber auch die Gesellschaft steht in enger Wechselwirkung mit der Technik, da sie insbesondere die Anwendung und die Verbreitung der IKT beeinflusst.
Im Zusammenhang mit den IKT stellt sich die Frage, ob nicht auch soziale Dimensionen als Schutzgut betrachtet werden sollen. Wir haben die Perspektive des Vorsorgeprinzips verschoben: Statt als methodischen Rahmen für die Risikoabschätzung betrachten wir es als methodischen Rahmen für die Technikfolgen- Abschätzung. Das Vorsorgeprinzip soll die Technikentwicklung und - anwendung in die gewünschte Richtung lenken, ungewisse irreversible Risiken vermeiden und das Potential für zukünftige Entwicklungen erhalten.
Ausgehend von den spezifischen Eigenschaften der IKT zeigen wir auf, wieso Vorsorge in der Informationsgesellschaft so wichtig ist und wie man das Vorsorgeprinzip für die Informationsgesellschaft konkretisieren kann.
Kontakt
Claudia SomEMPA St. Gallen
Abteilung Technologie und Gesellschaft
Lerchenfeldstr. 5
9014 St. Gallen, Schweiz
Tel.: +41 71 274 78 43
Fax: +41 71 274 78 62
E-Mail: claudia.som∂empa.ch
Aspekte robuster politischer Technologieentscheidungen
Abstract
Energiesysteme sind aufgrund der typischen langen Kapitallebensdauer und der hohen Intensität relativ träge Systeme, die eine sehr langfristige Planung erfordern. Gleichzeitig werden mit Technikentscheidungen zukünftige Ressourcenverbräuche und Inanspruchnahmen der Umwelt als Senke, insbesondere in Bezug auf Klimagasemissionen, mitbestimmt. Zusätzlich ist der Ausbau der Energiesysteme in nichtindustrialisierten Staaten wesentlich, um Nachhaltigkeitsziele, z. B. auch in den Bereichen Gesundheit und Gender, zu erreichen. Aufgrund dieser Charakteristika lassen sich anhand von Energiesystem und -techniken wichtige Aspekte zu technikbezogenen Entscheidungsprozessen und Methoden der Technikreflexion und Technikgestaltung diskutieren. Fokussiert wird im Folgenden auf erneuerbare Energietechniken und energietechnikbezogene Entscheidungen in Politik, internationalen Organisationen - also nicht in Unternehmen - sowie deren wissenschaftlicher Beratung.
Als erstes wird für eine gängige Methode zur Bestimmung eines Indikators zur Beurteilung der Wirtschaftlichkeit von Technologien diskutiert, die von vielen Entscheidungsträgern als einer der bedeutendsten Indikatoren betrachtet wird: Bestimmung von CO2- Vermeidungs- bzw. spezifischer Energiebereitstellungskosten. Es wird gezeigt, dass die Verwendung dieser Indikatoren nicht nur eine stabile und robuste Welt voraussetzen, sondern bereits in der zugrunde liegenden ökonomischen Binnenlogik implizit nur für genau definierte zukünftige Preispfade von CO2-Emissionen bzw. des betrachteten Energieträgers als korrekte Wirtschaftlichkeitsmaße angesehen werden können, wovon die Grundlage eines der beiden verwendeten Kostenkonzepte auch noch in der Kostenrechnung zu erkennen ist, die nicht primär für Investitionsentscheidungen konzipiert ist. Ein Ergebnis korrekter Rechnungen können nur Preis(bzw. Kosten)pfade, die eine vollständige Abbildung der Zukunft erfordern und nur als ganzes - als Pfad - aus der ökonomischen Binnenlogik zu begründen sind. Aus der Darlegung wird gefolgert, dass Wirtschaftlichkeitsvergleiche für einzelne Energietechnologie heute zumindest eine Bezugnahme auf langfristig (z. B. 100 Jahre) angelegte Klimamodelle und komplette, ebenfalls langfristige Entwicklungen des Energiesystems (z. B. 50 Jahre) essentiell erfordern. Szenariotechniken sind damit essentiell und nicht nur für Wirtschaftlichkeitsmaße sondern ebenso für Ökobilanzen oder externe Kosten. Dort wird man ebenso mögliche zukünftige Entwicklungen mitzudenken haben. Gängige in der gesellschaftlichen Kommunikation und politischen Entscheidung verwendete Maße sind denn auch mit erheblichen Fehlern behaftet, die Technologieentwicklungen entscheidend bestimmen können. Eine Adaption der Kommunikation und der von einigen internationalen Organisationen verwendeten Entscheidungsgrundlagen wäre deshalb zu begrüßen. Im Energiebereich liegen Alternativen vor, die gerade für eine Suche nach robusten Technologiepfaden in einer fragilen Welt im Energiebereich entwickelt wurden. Für die politischen Maßnahmen zur Entwicklung von als robust erkannten Technologielinien ist zu bedenken, dass ein Lernen über die Wirkung von Technologien und die Option daraus Handlungskonsequenzen zu ziehen, zu Unsicherheiten erhöhen können. Für erneuerbare Energien wird argumentiert, dass ohne eine mitunter starke Selbstbindung (oder einer entsprechenden Reputation der Entscheidungsträger) bestimmte politische Konsequenzen nicht zu ziehen, gewünschte Technologieentwicklungen gehemmt oder erheblich verteuert werden können. Damit können Zeitverzögerungen entstehen, die eine zeitlich problemadäquate Technologieentwicklung gefährden. Dies wird auch an Beispielen verdeutlicht.
Als Schlussfolgerung ergibt sich, dass:
- technikbezogenen Entscheidungsverfahren und Indikatoren einiger internationalen Organisationen sich an einer robusten Welt orientieren und überdacht werden sollten,
- Governancestrukturen aufzubauen sind, die bei prinzipieller Kontinuität dennoch Freiheit in einer Detailsteuerung zulassen. Dies gilt sowohl in der Forschungs- als auch in der Markteinführungspolitik.
Kontakt
U. Klann, W. Krewitt, J. Nitsch
Deutsches Zentrum für Luft- und Raumfahrt
Institut für Technische Thermodynamik
Abteilung Systemanalyse und Technikbewertung
Pfaffenwaldring 38-40
70569 Stuttgart
Tel.: +49 (0) 711 / 6862 - 302
E-Mail: uwe.klann∂dlr.de
Politikberatung als Irritation - praktische Erfahrungen bei Technik-Konflikten
Abstract
Die Geschichte der Umweltdebatte der vergangenen 30 Jahre Konflikte ist im wesentlichen eine Geschichte der Konflikte um technische Anlagen bzw. generell um Technologien. Den Platz der verwundbaren Umwelt nimmt in jüngster Zeit zunehmend die verwundbare Gesundheit (und die verwundbare Sozialstruktur) ein. Ob Mobilfunk, Atomendlagerung, Gentechnik, Massentierhaltung, Flugverkehr oder der Einsatz von Chemikalien - die Politik trägt Konflikte zwischen Befürwortern und Gegnern, zwischen potentiellen Gewinnern und potentiellen Verlierern des Einsatzes von Technik aus. Sie sucht Wege, den Konflikt (auf)zu lösen und gleichzeitig die jeweilige Klientel / die jeweilige politische Position zu stützen.
Die Diagnose der fragilen Welt findet im Bereich der Technikkonflikte einen Ausdruck in der zunehmenden Ausdifferenzierung der Konfliktparteien. Das Bild wird nicht mehr geprägt von den antagonistischen und mehr oder weniger straff organisierten Blöcken der Atomkraftgegner und der Nuklearenergiebefürworter, die in dieser Konstellation gleichzeitig die Frontlinien im Streit um Wirtschaftswachstum, Nachrüstung oder auch Gleichberechtigung nachstellten. Vielmehr ist das Bild bunter geworden: Neben den klassischen NGO´s gibt es die Toner-Geschädigten, die gegen PID arbeitende Behindertenlobby, die Villen besitzenden Fluglärmgegner oder auch die sich gegen eine Mobilfunkantenne auf dem Kirchendach wehrenden Gläubigen. Dabei hat die Intensität der den Technikeinsatz begrenzen wollenden Kampagnen wenig mit der Gefährdung zu tun, wie sie seitens der wissenschaftlichen Experten quantifiziert wird.
Wissenschaftliche Politikberatung geht klassischer Weise davon aus, dass das Rationalitätsniveau der Politik gehoben werden muss. Durch Expertise (und Gegenexpertise) munitionieren sich die politischen (Konflikt-)Parteien, legitimieren ihre jeweilige Position und harmonisieren die internen Positionen. Wenn die Konfliktparteien zerfasern und die Expertise zunehmend weniger verfängt, muss Politikberatung neue Wege gehen. Am Beispiel ausgewählter praktischer Beispiele wird gezeigt, dass hier eine konstruktivistische Politikberatung weiter helfen kann. Diese zeigt die Grenzen und die Deutungsmöglichkeiten wissenschaftlichen Wissens auf, erarbeitet mit dem beratenen Politiker zusammen ein Bild des „Konfliktsystems“ und der beteiligten Teilsysteme inclusive ihrer jeweiligen Verfasstheit („Konflikt- und Akteurslandschaft“) und unterstützt ihn (resp. sie) bei der Reflektion der eigenen Rolle und der bestehenden Handlungsoptionen.
Die Erfahrung zeigt, dass diese irritierende Form der Beratung nicht immer auf Gegenliebe stößt. Der Beratungsprozess liefert wissenschaftliche Fakten und zeigt damit die Unsicherheit der wissenschaftlichen Aussagen auf. Er generiert Handlungsoptionen und überlässt die Bewertung dem Kunden. Er beginnt mit einem klaren Auftrag und hinterfragt diesen im Lauf des Beratungsprozesses kontinuierlich. Diese Form der Beratung irritiert nicht nur den einzelnen Entscheidungsträger, sie irritiert das System der Entscheidungsfindung. Diese Irritation bietet die Chance, dem im Bereich des Einsatzes von Technik in hohem Maße politisch und juristisch geregelten System der Entscheidungsfindung neue Wege zu eröffnen.
Kontakt
Dr. Christoph Ewen
Ludwigshöhstraße 31
64285 Darmstadt
E-Mail: mail∂team-ewen.de
Technik als ein Element in Konstellationen analysieren und entwickeln: Das interdisziplinäre Brückenkonzept „Konstellationsanalyse“
Abstract
Eine wesentliche Ursache für die Fragilität der modernen Welt ist die neuartige Verkettung technischer und natürlicher Entwicklungen mit dem genuin Sozialen. Die Welt fällt jedoch nicht auseinander, sondern reorganisiert sich vielmehr permanent in neuartigen Konstellationen, in die technologische Entwicklungen eingebettet sind - und in denen sie auch beschrieben werden müssen. Doch es mangelt an Rezepten, sprich: Instrumenten und Verfahren, die eine entsprechende Analyse komplexer Konstellationen sowie die dafür notwendige interdisziplinäre Zusammenarbeit ermöglichen.
Die von uns entwickelte Konstellationsanalyse soll die Untersuchung des Zusammenwirkens heterogener Elemente in komplexen Konstellationen ermöglichen und als interdisziplinäres Brückenkonzept für die Technik-, Nachhaltigkeits- und Innovationsforschung den beteiligten Wissenschaftsdisziplinen gemeinsame analytische und strategische Anknüpfungspunkte bieten.
Unser Beitrag gliedert sich in zwei Teile. Der erste Teil ist eine kurze Darstellung einiger Grundzüge der Konstellationsanalyse. Deren konzeptionelle Kernpunkte sind
- die Fokussierung auf die Relationen zwischen allen als relevant erkannten Faktoren,
- die gleichrangige Betrachtung heterogener Elemente,
- ein Erklärungsanspruch „mittlerer Reichweite“ und
- der Einsatz einer visuell gestützten Darstellungs- und Untersuchungsmethodik.
Die Durchführung erfolgt in aufeinander aufbauenden Schritten: Auf eine erste „Kartierung“ der relevanten Elemente und Relationen folgt ein „Zoom“ in besonders interessante Subkonstellationen. Auf dieser Basis lässt sich dann die Gesamtdynamik der Konstellation rekonstruieren und abschließend nach den Interventionsmöglichkeiten fragen.
In einem zweiten Schritt wollen wir die Vorteile der Konstellationsanalyse anhand dreier Forschungsprojekte mit unterschiedlichen Kernfragestellungen vorstellen:
- Strategien für komplexe Konstellationen entwickeln
Eine umfassende Kartierung des Zusammenwirkens heterogener Elemente - technische Artefakte, soziale Akteure, natürliche Elemente, Zeichensysteme - ist die Voraussetzung für eine vernünftige Strategieentwicklung. Am Beispiel eines Forschungsprojektes zur Weiterverwendung von gebrauchten Computern wollen wir darlegen, wie mit der Konstellationsanalyse diejenigen Elemente, Relationen und Subkonstellationen identifiziert werden können, die diese Entwicklungsrichtung stabilisieren oder destabilisieren. Damit könnte der konkrete Einsatzpunkt für Erfolg versprechende Strategien genauer bestimmt werden. - Nichtwissen kartieren
Die Konstellationsanalyse kann vermutlich für die Abschätzung und Kommunikation von Risiken fruchtbar gemacht werden, indem mittels der Kartierung von Konstellationen ‚blinde Flecken' überhaupt erst sichtbar gemacht und damit Nichtwissensbereiche erkundet und eingrenzt werden können: Welche Elemente, Relationen und Subkonstellationen (bspw. ökonomische, rechtliche, soziale, ökologische) treten typischerweise in Erscheinung, welche fehlen, sind unterbelichtet oder verbleiben ganz im Bereich des Nichtwissens? Die Kartierung der Wissens- und Nichtwissensbereiche kann die gezielte Hinzuziehung weiterer disziplinärer/sektoraler Expertise orientieren und der interdisziplinären Risikoabschätzung und -kommunikation als Material dienen. - Perspektivenvielfalt zulassen und Blockaden lösen
Die Konstellationsanalyse versucht die Vielfalt der Perspektiven unterschiedlicher Akteure auf die gleichen Dinge und Probleme methodisch in die Beschreibung zu integrieren und damit Entwicklungsblockaden zu identifizieren. Am Beispiel eines Projektes zum Hochwasserschutz in der Elbe-Mulde-Region wird verdeutlicht, wie die Verkennung von Perspektivenvielfalt und das Ringen um Definitionsmacht über zentrale Elemente in der Konstellation Entwicklungen blockieren. Dem zentralen Element der Konstellation - der Fluss Elbe - werden höchst unterschiedliche Rollen zugewiesen: Ökosystem, Verkehrsweg, touristische Attraktion oder Wirtschaftsfaktor - alle sprechen von der Elbe, gemeint ist jedes Mal etwas ganz anderes. Hier kann die Konstellationsanalyse möglicherweise zur Aufklärung der Akteure beitragen, Bewertungen und Entscheidungen eine neue Basis bieten und mögliche sinnvolle heterogene Allianzen identifizieren.
Kontakt
Dr. Susanne Schön, Dr. Benjamin Nölting, Martin Meister
Technische Universität Berlin
Zentrum Technik und Gesellschaft
Hardenbergstraße 36A
10623 Berlin
Tel.: +49 (0) 30 / 314 - 23665
Fax: +49 (0) 30 / 314 - 26917
Patentrecht: Technikfreisetzendes oder regulatives Recht? Die Kontroverse um die EU-Biopatentrichtlinie
Abstract
Die Diagnose einer fragilen Welt markiert die Verwundbarkeiten, die durch globale Entgrenzungsprozesse entstehen, wie etwa der Verlust nationalstaatlicher Steuerungskapazitäten und institutionelle Veränderungen (z. B. politische Mehrebenensysteme), aber auch die Entkoppelung von Finanz- und Gütermärkten, volatile Börsenkurse, gesteigerte Mobilität, zeitliche Beschleunigungsprozesse und technischer Wandel.
Die Auflösung alter Grenzverläufe kann Instabilitäten hervorrufen. Sie bietet jedoch auch Chancen für „boundary work“, neues Ausbalancieren und Ausgleichsprozesse.
Als Fallstudie dafür, wie technische Innovationen mit Ökonomie, Recht und Politik interagieren, soll das Patentrecht herangezogen werden.
Das Patentrecht kann als „technikfreisetzendes Recht“ (G. Winter) par excellence betrachtet werden, soll es doch Forschung und Entwicklung als Instrument befördern und Investitionen in Innovationen absichern. Das Patentsystem soll nicht nur Erfindungen anspornen und belohnen, sondern auch Unternehmen Rechtssicherheit geben und die Resourcenallokation verbessern. Gleichzeitig gilt das Patentrecht als Indikator für die wirtschaftliche und technische Leistungsfähigkeit eines Landes.
In den vergangenen Jahrzehnten ist eine Ausweitung des Patentsystems zu konstatieren. In quantitativer Hinsicht ist die Zahl der angemeldeten und erteilten Patente in Europa, den USA und Japan überproportional gewachsen. Aber auch qualitativ ist eine Expansion des Patentschutzes zu verzeichnen, nicht nur in Bezug auf neue Anwendungsfelder (z.B. „lebende Materie“, darunter Zellen und Gene, Pflanzen und Tiere, Software, Geschäftsmethoden), sondern auch auf den Schutzumfang von erteilten Patenten (Breite der Ansprüche, Reichweite des Patentschutzes). Einer der Gründe für diese Expansion bildet das Wachstum wissensbasierter Ökonomien und der Eintritt in die „Wissensgesellschaft“.
Begriffe wie „Patentinflation“ und „Patentsintflut“ charakterisieren allerdings Krisensymptome, immer häufiger wird eine Vertrauenskrise des Patentsystems konstatiert. Indikatoren für Fehlentwicklungen sind die Erteilung von „Trivialpatenten“ mit geringer Erfindungshöhe, ein Patentwettrüsten um Defensiv- und Sperrpatente, spekulative Patentanmeldungen, sog. „U-Bootpatente“ mit „versteckten“ Angaben zur Erfindung, ein „Patentdickicht“, für die insgesamt der Begriff der „tragedy of the anticommons“ (Heller/Eisenberg) geprägt wurde. Institutionelle Probleme ergeben sich aus der hohen Autonomie des Europäischen Patentamtes und mangelnden externen Kontrollmechanismen, sowie Defiziten in der demokratischen Legitimation.
Die Ansätze der Europäischen Union, im Patentrecht für neue Technologiebereiche (Biotechnologie, Software- Richtlinie) legislativ tätig zu werden, sind überraschenderweise auf hohe öffentliche Aufmerksamkeit gestoßen und waren mit langwierigen, konfliktreichen Verhandlungsprozessen verbunden. Dabei sind Technologiekonflikte und (rechtliche) Regulierungskonflikte ineinander verflochten.
Teilweise werden diese politischen Verschleppungsprozesse als bloße Blockaden wahrgenommen. Ich möchte hingegen die These vertreten, dass in diesen Auseinandersetzungen Chancen für eine Neubestimmung des Patentrechts als „regulatives Recht“ (Ch. Godt) angelegt sind.
Anhand des Verlaufs der Kontroversen um die EU-Biopatentrichtlinie und deren nationale Implementierung soll deutlich gemacht werden, wie versucht wurde, ethische Ansprüche und (re)distributive Gerechtigkeitsvorstellungen in das Patentrecht einzuschreiben. Es soll diskutiert werden, ob und inwieweit eine Neukonzeption des Patentrechtes als regulativem Recht in der Lage wäre, Krisenerscheinungen, die durch die Expansion des Patentsystems mit entstanden sind, zu korrigieren. Dies könnte geschehen, indem neue Grenzverläufe durch einen angemessenen Zuschnitt von Patentreichweite und -Umfang in das Patentsystem selbst eingeführt, ethisch begründete Patentausschlüsse (ordre public) konkretisiert und Rechte Dritter (z. B.: „Quellen“ von patentiertem humanbiologischem Material, Wissen indigener Völker) als kompensierende Gegenrechte zu den Rechten der Erfinder verankert würden. Damit wäre die in den Kontroversen zur Biotechnologie-Richtlinie zutage getretene öffentliche Partizipation an Technik- und Rechtskonflikten als eine Chance zur Forschungs- und Technikgestaltung, sowie zum Neujustieren eines angemessenen Verhältnisses zwischen Erfinder und Gesellschaft zu betrachten.
Kontakt
Dr. Ingrid Schneider
Universität Hamburg
Forschungsschwerpunkt Biotechnik, Gesellschaft und Umwelt (BIOGUM)
Forschungsgruppe Medizin / Neurowissenschaften
Falkenried 94
20251 Hamburg
Tel.: +49 (0) 40 / 42803 - 6311
Fax: +49 (0) 40 / 42803 - 6315
E-Mail: Ingrid.Schneider∂uni-hamburg.de
Unternehmensprozesse - Potenziale für Technikfolgenabschätzung
Abstract
Technikfolgenabschätzung bezeichnet ein Konzept, das die Bereitstellung von Handlungs- und Orientierungswissen über technische Systeme und deren Verknüpfungen mit wirtschaftlichen, gesellschaftlichen und politischen Systemen zum Ziel hat. Dieses Wissen soll beratend, das heißt entscheidungsunterstützend eingesetzt werden.
In der Diskussion um die Rolle der Technik in der Gesellschaft sowie um technikreflektierende Forschung gewinnt der Aspekt der Gestaltung von Technik, das frühzeitige Erkennen von Entwicklungsrichtungen, aber auch von Bedarfen, von Ursachenkomplexen und von Alternativen zunehmend an Gewicht und wird in die bekannten Vorgehensweisen und Ziele der Technikfolgenabschätzung integriert, zum Beispiel im ITA-Konzept des BMBF.
Der Gedanke, dass wir heute konstruktiv Bedarfe und Möglichkeiten betrachten und gestalten wollen und müssen, betont die Chancen der Technikgestaltung, nämlich systematisch bedarfsorientierte Innovationen hervorzubringen, eingeschlossen organisatorische und soziale Neuerungen.
Die Integration von TA-Strategien in unternehmerische Vorgehensweisen ist insofern folgerichtig, da hier wesentlich die Technikentwicklung stattfindet. Wichtig ist besonders die Mitwirkung von KMU, weil diese ein starkes Bindeglied zwischen Wirtschaft und Gesellschaft darstellen. Wesentliche Anknüpfungspunkte ergeben sich aus dem Verständnis, dass die komplexen Ziele, die mit der Technikfolgenabschätzung auf gesellschaftlicher Seite verbunden sind, in der unternehmerischen Perspektive durch die Gesamtheit der miteinander vernetzten Prozesse in einem Unternehmen angestrebt werden. Dies trifft besonders auf die Prozesse der Innovationsentstehung und auf Entscheidungsprozesse über die Nutzung von Technologien zu. Gleichzeitig ist Technikfolgenabschätzung bislang jedoch im wesentlichen in wissenschaftlichen Institutionen bekannt und weniger in Unternehmenskreisen. Der vorliegende Beitrag beschäftigt sich daher mit der Frage „Wie können Unternehmen in das TA-Konzept integriert werden, bzw. wie kann dieses Konzept (verstärkt) in Unternehmen integriert werden?“
Technikfolgenabschätzung lässt sich als gesellschaftlicher Managementprozess auffassen, der zum Ziel hat, die aus gesellschaftlicher Sicht „richtigen“ Technologien einzusetzen. Dieser normativen Sicht stehen in der Wirtschaft Prozesse gegenüber, die sich mit diesem Anspruch aus unternehmerischer Sicht mit dem Ziel der Existenzsicherung seit langem beschäftigen. Damit sind die unternehmerischen Prozesse in zweierlei Hinsicht interessant: als Quelle der Erfahrung und als Schnittstelle. Die „Erfahrungen“ von Unternehmen bei der Bewältigung unternehmerischer Herausforderungen können dabei für die Technikfolgenabschätzung bei der Bewältigung gesellschaftlicher Herausforderungen dienlich sein, nämlich die Erhaltung des Ganzen in einer dynamischen Umwelt; „Schnittstellen“ beziehen sich hingegen auf Möglichkeiten, den TA-Gedanken in das unternehmerische Handeln und die unternehmerischen Prozesse zu integrieren.
Die Potenziale zur Integration in Unternehmen wurden im Rahmen des Projekts „Analyse von konzeptionellen und organisatorischen Schnittstellen in Unternehmen zur Integration des Konzepts der Innovations- und Technikanalyse (ITA)“ untersucht, wobei KMU die bevorzugte Zielgruppe darstellen.
Hierin wurden Anknüpfungspunkte und Schnittstellen in Unternehmen identifiziert, beschrieben und im Hinblick auf ihr Potenzial, einen Beitrag für die ITA-Integration leisten zu können, analysiert. Darüber hinaus wurden konkrete Vorschläge zur Umsetzung in Unternehmen gemacht.
Managementsysteme wie Qualitäts-, Umwelt-, Wissens-, Sicherheits-, Technik- und Innovationsmanagementsysteme bieten hierbei sinnvolle Realisierungsmöglichkeiten. Der Bezug der Managementsysteme zur Kundenorientierung, der Bezug auf den Menschen, die Prozess- und Systemorientierung mit dem Ziel der Transparenz sowie die Festlegung auf Verbesserung und die klare Zuweisung von Verantwortungen liefern klare konzeptionelle Schnittstellen für das (I)TA-Konzept. Entscheidend ist dabei nicht, dass sich ein bestimmtes Managementsystem als Anknüpfungspunkt herausstellt, sondern dass alle Managementsysteme vielfältige Schnittstellen bieten.
Kontakt
PD Dr.-Ing. habil. Bjørn Ludwig
Technowledgement Consulting
Postfach 3521
37025 Göttingen
Tel.: +49 (0) 551 - 707 94 91
E-Mail: ludwig∂technowledgement.com
Internet: http://www.technowledgement.com