Leena Ilmola-Sheppard
Uncertainty is increasing, but decisions have to be made. Foresight is needed more than ever. But are we ready to meet the increasing demand? The limits of our knowledge become very obvious. Even predicting the near future is a challenge. During the last years Fukushima Daijhii, Arab Spring, shale gas, Crimean conflict and young Japanese that do not want to buy cars have surprised us all. Still we have to anticipate what are the alternative futures scenarios for 2030 or 2050. The professional challenge is immense. I will talk about how to think the unthinkable and to analyse the unknown - and limits we face, when doing so.
Dr. Leena ILMOLA-SHEPPARD is a senior researcher at the International Institute for Applied Systems Analysis (IIASA). She is working as a project manager in the Advanced Systems Analysis Program. She has was part of the Game Changers and the Global Economy 2030 project, Seven Shocks Projects for Scotland, Finland and Korea. Her research theme is uncertainty and resilience of social systems; she is developing new modeling methods for foresight and tools for pragmatic decision making. The current projects focus on developing management systems for resilience.
Leena Ilmola-Sheppard is working as a Scientific Coordinator of the Global X-Network (GXN). The GXN consists of American, British, German, Austrian, Korean, Japanese, Finnish and French researchers that are dedicating their time for conducting a comprehensive research on extreme events, uncertainty and resilience. The aim of the network is to build a theory of surprise by 2018.
Since 2013, Leena Ilmola-Seheppard is working as an advisor for the Futures Committee of the Finnish Parliament. From 2012 to 2014 she was an advisor for the Prime Minister’s Office for the Finnish Government’s Futures Review process.
She is also a member of the Board of the Finnish Futures Association since 2005.
Armin Grunwald
Technikzukünfte stellen ein wichtiges Medium gegenwärtiger Technikdebatten dar. In ihnen werden technische Entwicklungen mit gesellschaftlichen Bedeutungen versehen, in positiver (Erwartungen, Hoffnungen, Potentiale) wie in negativer Hinsicht (Befürchtungen, Ängste). Antizipationen der Zukunft strukturieren auf diese Weise gesellschaftliche Technikdebatten, beeinflussen Forschungs- und Technologieförderung und orientieren das Agenda-Setting in den Technikwissenschaften. Im Vortrag werde ich darstellen, auf welch unterschiedlichen Wegen Technikzukünfte prägende Kraft für gegenwärtige Technikgestaltung erhalten können. Aus dieser Betrachtung werde ich sodann Schlussfolgerungen für Methodik und Praxis der Technikfolgenabschätzung ziehen.
Sascha Dickel, Jan-Felix Schrape
Wir leben wieder in utopischen Zeiten. Neben die Gegenwart, die von Krisen, Ungleichheiten und Ungleichzeitigkeiten geprägt ist, tritt eine Zukunft, in der sich die Ambivalenzen der Jetztzeit auflösen – und diese Zukunft wird vorrangig durch neue Technologien hergestellt. Das Klagen der Intellektuellen vom Ende der Utopien galt in ihrem Kern ohnehin nur einer bestimmten Variante des utopischen Denkens: der Sozialutopie, in der sich Gesellschaftskritik und gesellschaftlicher Gegenentwurf vermählen und Technik kaum eine Rolle spielt.
Gegenwärtig erlebt die Technikutopie eine neue Blütezeit, welche allenfalls mit jener Ära der 1960/70er Jahre vergleichbar ist, in der sich selbstbewusster Planungsoptimismus mit futurologischer Phantasie paarte und die erst durch die Katastrophe von Tschernobyl sowie die darauf folgende Reflexion technologischer Risiken ihr Ende fand. Neuere Technikutopien (z.B. im Bereich der Nanotechnologie) verzichten daher auf fixierte Zukunftsbilder und gesellschaftliche Steuerungsambitionen. Ihre Rhetorik ist die Rhetorik der Potentialität – einer Potentialität, die in technologischen Designs schon heute angelegt ist und zukünftig freigesetzt werden kann.
Allerdings lässt sich das utopische Denken der Moderne heute nicht mehr auf eine Polarität technikvergessener Sozialutopien und gesellschaftsvergessener Technikutopien reduzieren. Eine Sonderstellung nehmen Medienutopien ein, die mit der Digitalisierung in den Mittelpunkt des allgemeinen Diskurses gerückt sind. In ihnen verbinden sich – vorderhand jeder Ideologie unverdächtig – technische Potentialerwartungen und gesellschaftliche Transformationsvorstellungen, die mit schillerndem Revolutionsvokabular belegt werden.
Vor diesem Hintergrund will sich unser Beitrag Medienutopien in der digitalen Moderne widmen und ihre wiederkehrenden semantischen Strukturen und Argumentationsmuster herausarbeiten. Dabei entfalten wir die These, dass der anhaltende Erfolg utopischer Vorstellungen um immer wieder neue ›neue‹ Medientechnologien vorrangig auf ihrer Anschlussfähigkeit gegenüber einer Vielzahl an gesellschaftsfundamentalen wie auch bereichsspezifischen Diskurssträngen basiert: Durch ihre radikalen und zugleich offen gehaltenen Erwartungen, die typischerweise auf eine Entdifferenzierung klassischer Leistungs- und Publikumsrollen hinauslaufen (z.B. im Journalismus), provozieren die utopischen Narrative um Digital- und Onlinetechnologien in vielen gesellschaftlichen Bereichen regelmäßig den Eindruck unmittelbarer Betroffenheit. Dementsprechend gliedert sich unser Vortrag wie folgt:
(I) Die Multireferentialität aktueller Medienutopien möchten wir zunächst anhand zweier Fallbeispiele konkretisieren: Das Internet bzw. das »Web 2.0« hat ab 1993 bzw. 2005 die Renaissance zahlreicher radikaler Veränderungserwartungen evoziert, die bereits in den 1970er Jahren entwickelt wurden, darunter u.a. die Substitution klassischer Massenmedien durch nutzerzentrierte Austauschprozesse. Auf ähnliche Weise hat der massentaugliche 3D-Druck in Verbindung mit den Vernetzungspotentialen der Onlinetechnologien Hoffnungen auf eine nutzerzentrierte Produktion materieller Güter und eine Wiederbelebung des Handwerkmodells reaktiviert.
(II) Anschließend werden wir die semantischen Architekturen einschlägiger Medienutopien herausarbeiten: Die sachliche Differenz von gegebenen und alternativen gesellschaftlichen Verhältnissen wird in die zeitliche Differenz von Vergangenheit und Zukunft überführt und auf sozialer Ebene in die Unterscheidung von visionärem Sprecher und Publikum übersetzt, dem im- oder explizit unterstellt wird, in einer Denkweise verfangen zu sein, die das Hier und Jetzt als alternativlos erscheinen lässt. Die für die jeweils adressierten Veränderungen als Katalysator beschriebene Technik dient dabei oft nur als Steigbügelhalter für allgemeine Zukunftshoffnungen, die sich an der Kritik gegenwärtiger Strukturen entspinnen.
(III) Mit diesen Erwartungen können Komplexitätsreduktionen einhergehen, die sich ebenfalls entlang der zeitlichen, sachlichen und sozialen Sinndimensionen benennen lassen: Visionen um aktuelle Neuerungen werden von vorangegangenen Erwartungsverläufen entkoppelt; anhand von Anwendungsfällen gewonnene Eindrücke werden von ihren spezifischen Kontexten isoliert; und die Verwendungsweisen früher Nutzer werden unmittelbar auf eine künftige Bevölkerungsmehrheit verlängert, ohne deren spezifische Lebenswelten zu berücksichtigen. Durch solche Übergeneralisierungen rückt die Frage in den Hintergrund, was ggf. auch gegen die Adaption neuer technologischer Möglichkeiten sprechen könnte.
(IV) Auf diese Weise entstehen äußerst stabile Mythen zu den gesellschaftlichen Veränderungspotentialen neuer Technologien, die als diskursive Leitbilder Orientierungs-, Mobilisierungs- wie auch Distinktionsfunktionen erfüllen und weit über die Milieus regelmäßiger Frühnutzer hinaus wirken. Diesem Sog utopischer Orientierungen kann sich auch die Gesellschaftsforschung kaum entziehen. Anknüpfend an die skizzierten Fallbeispiele möchten wir daher in einem Ausblick die Ambivalenzen im Umgang der sozialwissenschaftlichen Technikfolgenabschätzung mit diesen wiederkehrenden Erwartungen gegenüber neuen Medientechnologien diskutieren.
Sascha DICKEL (Jg. 1978) ist seit 2014 wissenschaftlicher Mitarbeiter am Friedrich Schiedel-Lehrstuhl für Wissenschaftssoziologie der Technischen Universität München. 2010 Promotion im Fach Soziologie an der Universität Bielefeld. Forschungsschwerpunkte: Zukunftswissen, Technologien der Inklusion, technisierte Natur. Aktuelle Publikation: Die Regulierung der Zukunft. »Emerging Technologies« und das Problem der Exklusion des Spekulativen, in: Alfons Bora, Anna Henkel, Carsten Reinhardt (Hg.): Wissensregulierung und Regulierungswissen, Weilerswist: Velbrück, 201–218.
Jan-Felix SCHRAPE (Jg. 1979) ist seit 2010 Mitarbeiter der Abteilung für Organisations- und Innovationssoziologie des Instituts für Sozialwissenschaften an der Universität Stuttgart. 2010 Promotion im Fach Soziologie an der Universität Regensburg. Forschungsschwerpunkte: Innovations- und Mediensoziologie. Aktuelle Publikation: Kollektives Handeln im Internet. Eine akteurtheoretische Fundierung, in: Berliner Journal für Soziologie 24(1), 5–30 (zus. mit Ulrich Dolata).
Daniala Fuchs, Helge Torgersen
Das EU-Projekt Neuro-Enhancement and Responsible Research and Innovation (NERRI, NERRI.eu) versucht, in zwölf europäischen Ländern die öffentliche Debatte zum Thema Neuro-Enhancement zu stimulieren. Partizipative Veranstaltungen – Fokusgruppen, Science Cafés bis hin zu Scenario-Workshop-ähnlichen Formaten – geben StakeholderInnen, BürgerInnen, und ExpertInnen Gelegenheit, Standpunkte zu diskutieren und voneinander zu lernen.
Dabei stellt sich heraus, dass es sehr unterschiedliche Vor-stellungen von Neuro-Enhancement und seinen Anwendungen gibt. Beschreibungen und Verweise greifen meist auf bereits etablierte Praktiken zurück, bei denen ein Bezug zu Neuro-Enhancement existiert oder denen das zumindest nachgesagt wird. Referenzen reichen dabei von Vergleichen mit Kaffeegenuss oder Energy Drinks über die (bestenfalls halblegale) Einnahme rezeptpflichtiger Pharmaka bis hin zu Doping und zur Suchtgiftproblematik. Neue Formen des Gamings, Brain-Computer-Interfaces und Diskussionen über Transhumanismus ergänzen das Spektrum der Ideen, die kontextabhängig stark variieren.
Welche Bezüge gewählt werden, ist weder willkürlich noch „richtig“ oder „falsch“, sondern Ergebnis von durchaus absichtlich unterschiedlichen Darstellungen. Sie richten den Blick auf jeweils bestimmte Probleme oder Erwartungen im Zusammenhang mit Neuro-Enhancement, während sie andere ausblenden. Damit bestimmen sie, ob ein Argument angemessen oder legitim ist. An früheren Diskussionen über Technologien konnte man zeigen, dass bestimmte Vergleiche jeweils spezifische Problematisierungen dieser Technologien - etwa als ethische Frage oder als Risikoangelegenheit – zur Folge haben. Solche Verweise erscheinen als sinnvoll, ja geradezu zwingend, und sind so wirkmächtig, dass sie implizit den Rahmen der Diskussion bestimmen (Bogner/Torgersen 2014.
Vergleiche übertragen also unterschwellig Inhalte und Sichtweisen auf Objekte, die zunächst wenig mit diesen Inhalten zu tun haben. Man könnte auch sagen, sie geben Anlass zur Bildung von „Mythen“ im Sinne Roland Barthes (Barthes 2012, Döring/Torgersen 2012). Wenn wir die genannten Vergleiche in Barthes Perspektive betrachten, sollte es möglich sein, solche Mythen im Zusammenhang mit Neuro-Enhancement kenntlich zu machen und zu analysieren.
Der Ansatz einer „hermeneutischen TA“ (Grunwald 2012, Torgersen 2013) versucht bei der Abschätzung von neu entstehenden Technologien auf diskursanalytische Ansätze zurückzugreifen. Im Zusammenhang mit NERRI wollen wir diskutieren, ob die Identifikation und Analyse von Mythenbildung im Barthes’schen Sinne einen Beitrag zu einer hermeneutischen TA leisten kann.
Literatur:
Barthes, R., 2012 (1964): Mythen des Alltags, Berlin: Suhrkamp.
Bogner, A., Torgersen, H., (2014): Different ways of problematising biotechnology − and what it means for technology governance. Public Understanding of Science online 24 June, DOI: 10.1177/0963662514539074.
Döring, M./Torgersen, H., (2012): Foundational 'mythologies' of systems biology: Narratives of an emerging discipline in the bio-sciences. ESRC Genomics Network Conference, 23.-24. April 2012, British Library, London.
Grunwald, A., (2012): Synthetische Biologie als Naturwissenschaft mit technischer Ausrichtung. Plädoyer für eine „Hermeneutische Technikfolgenabschätzung“. TATuP 21/2, 10–15.
Torgersen, H., (2013): TA als hermeneutische Unternehmung. TATuP 22/2, 75-80.
Dr. Helge TORGERSEN arbeitete seit 1990 zunächst im Bereich Biotechnologie, später an Governance von Technologie-Kontroversen am Institut für Technikfolgen-Abschätzung (ITA) in Wien. Sein Interesse gilt heute allgemein dem Verhältnis von Technikentwicklung und gesellschaftlicher Wahrnehmung; konkret arbeitete er in letzter Zeit vor allem zu gesellschaftlichen Aspekten der Synthetischen und Systembiologie sowie der Nanotechnologie und zu partizipativen Verfahren der Technikfolgenabschätzung.
Daniela FUCHS MSc: Seit 2014 als Junior Scientist am ITA, beschäftigt sie sich in ihren Projekten mit den Themen Neuro-Enhancement und Nanotechnologie und Nanomaterialien.
Arianna Ferrari
Zahlreiche wissenschaftliche Studien zeigen, dass das aktuelle Niveau des Konsums tierischer Produkte und dessen Zukunftsprojektionen gravierende Auswirkungen auf die Umwelt haben und haben werden (u.a. FAO 2014). Trotz der von vielen WissenschaftlerInnen anerkannten Dringlichkeit von Veränderungen unserer Ernährungsgewohnheiten wird In-Vitro-Fleisch (IVF) zunehmend als Lösung für die Probleme der traditionellen Fleischproduktion vorgeschlagen.
Die Idee von IVF besteht darin, im Labor Fleisch aus der Entwicklung von Gewebe zu gewinnen. Solche Gewebe sind Ergebnisse eines Wachstumsprozesses in einem Bioreaktor, in dem Muskelstammzellen aus Tieren in einem Kulturmedium stimuliert werden. Im August 2013 wurde der erste In-Vitro-Fleisch-Burger in einer Pressekonferenz vorgestellt, der aus Rinder-Stammzellen hergestellt wurde (Post 2014). Heutzutage können tierische Zellen in Bioreaktoren bis zu einer Größe von 20m3 kultiviert werden (van der Weele/Tramper 2014). Dennoch gibt es immer noch ungelöste technische Hürden, die der Kommerzialisierung und großskaligen Produktion dieser Gewebe im Wege stehen (Post 2014).
Solch eine Innovation fasziniert nicht nur NaturwissenschaftlerInnen, sondern auch UnternehmerInnen und VertreterInnen der Zivilgesellschaft, weil sie mit einem starken „ethical touch“ präsentiert wird: Bei der Laborfleisch-Premiere in London erklärte Mark Post, dass sein Burger in drei Monaten hergestellt wurde, „schneller, als eine Kuh heranwachsen kann“. Ebenso scheinen veröffentlichte Zahlen eine sehr positive Ökobilanz nahezulegen: Die Produktion von 1.000 kg IVF zeigt demnach im Vergleich zur konventionellen Fleischproduktion einen geringeren Energieverbrauch, einen deutlich geringeren Ausstoß von Treibhausgasen bei der Herstellung sowie geringeren Wasserverbrauch (Tuomisto/Teixeira de Mattos 2011). Auch gesundheitlich könnte IVF besser als das traditionelle Fleisch abschneiden: Da der Prozess im Labor stattfindet, wäre der Einsatz von Antibiotika oder anderer Mittel, die heutzutage bei der Fleischproduktion im Einsatz sind, überflüssig. Schließlich wird IVF als „tierfreundlich“ beworben, indem gesagt wird, dass dafür keine Tiere mehr sterben müssen (Post 2014).
Obwohl IVF mit starken Narrativen, die zum Teil durch wissenschaftliche Studien belegt werden, präsentiert wird, bleiben viele Aspekte noch unklar, wie etwa bezüglich der ökologischen Auswirkungen der Inbetriebnahme von Bioreaktoren bzw. der notwendigen Schritte zur Umstellung der landwirtschaftlichen Produktion. Auch die behauptete Lösung des Problems der Tiertötung wird unterschiedlich im Diskurs verhandelt: Bis jetzt ist für die Erstellung von IVF fetales Kälberserum nötig, das aus Kälberföten gewonnen werden muss (Jochems et al. 2002) und somit ein Abfallprodukt der Fleischindustrie ist.
Sowohl die Visionen als auch die Wertvorstellungen, mit denen IVF befürwortet oder kritisiert wird, unterscheiden sich in dem Diskurs: Während einige WissenschaftlerInnen IVF als ein Produkt präsentieren, das neben konventionellem Fleisch in Zukunft existieren wird, plädieren andere für einen vollkommenen Ersatz konventionellem Fleisches. Während einige TierethikerInnen (Singer 2013; Schaefer/Savulescu 2014) und Tierschutzorganisationen (wie PETA) diese Innovation aus ethischen und politischen Gründen unterstützen, betonen dagegen andere, dass IVF dazu beiträgt, die Idee von Tierkörpern weiterhin als verzehrbar zu propagieren und somit die Tierausbeutung zu unterstützen (Pedersen/Stanescu 2014).
Ziel dieser Untersuchung besteht darin, die Leitbilder und Werte, die die Visionen von IVF prägen, zu erläutern und ihre möglichen Auswirkungen für die Strukturierung forschungspolitischer Diskurse zu analysieren.
Literatur:
FAO: Food outlook. Biennal Report on global food markets, 2014, www.fao.org/docrep/019/I3751E/I3751E.pdf
Jochems C. et al. (2002): The Use of Fetal Bovine Serum: Ethical or Scientific Problem?. In: Fund for the Replacement of Animals in Medical Experiments 30(2), S. 219–227.
Jones N. (2010): A taste of things to come?. In: Nature 468, S. 752-753.
Pedersen H., Stanescu V. (2014): Future Directions of Critical Animal Studies. In: Taylor N., Twine R. (ed.) (2014): The Rise of Critical Animal Studies. From the margins to the center. Routledge, S. 262-275
Post M.J. (2014): Cultured Beef: A Medical Technology to Produce Food. In: Journal of the Science of Food and Agriculture 94(6), S.1039-1041
Schaefer G.O., Savulescu J. (2014): The Ethics of Producing In Vitro Meat. In: Journal of Applied Philosophy 31(2), S. 188-202.
Singer S. (2013): The World's First Cruelty-Free Hamburger: Comment. In: The Guardian, August 5 2013
Tuomisto H.L., Teixeira de Mattos,M.J. (2011): Environmental Impacts of Cultured Meat Production. In: Environmental Science & Technology 45(1), S. 6117-6121.
Weele C.v.d., Tramper J. (2014): Cultured Meat: Every Village Its Own Factory?. In: Trends in Biotechnology 32(6), S. 294-296.
Dr. Arianna FERRARI ist Forschungsbereichsleiterin des Bereiches Innovationsprozesse und Technikfolgen am ITAS. Sie hat in Philosophie promoviert und ihre inhaltlichen Schwerpunkte liegen bei der Schnittstelle zwischen Ethik und Politik neuer emergierenden Technologien, Technikphilosophie, Ethik und Human-Animal Studies.
Georg Reischauer
Wie werden Zukunftsbilder aus der Technikentwicklung konkretisiert und zu einer Grundlage von künftigen Handlungsoptionen? Der vorliegende Beitrag adressiert diese Frage aus der Perspektive der neoinstitutionalistischen Organisationstheorie, die vor allem das Wechselverhältnis von Organisation und gesellschaftlicher Umwelt zentriert. Es wird argumentiert, dass Organisationen, die als institutionelle Unternehmer agieren, einen wesentlichen Anteil an der Konkretisierung von Zukunftsbildern haben. Institutionelle Unternehmer schöpfen situative Möglichkeiten aus, um eine Vision für das Zukunftsbild zu entwickeln und diese durch die Mobilisierung von Verbündeten umzusetzen. Dieser Prozess wird am Beispiel des Zukunftsbildes Industrie 4.0 illustriert.
Aus der Perspektive der neoinstitutionalistischen Organisationstheorie kann die Konkretisierung eines Zukunftsbildes aus der Technikentwicklung als dessen Institutionalisierung verstanden werden. Damit ist vereinfacht gemeint, dass ein neues Zukunftsbild zunehmend zu einer Institution wird, d.h. dass dessen Existenz und Anwendung zur Lösung von Problemen weitgehend gesellschaftlich akzeptiert ist. Mit anderen Worten, ein neues Zukunftsbild, sowie die Entscheidungen und Handlungen, die sich darauf berufen, werden als angemessen eingestuft. Es wird mitunter sogar erwartet, dass man sich – insbesondere als ‚progressive Organisation‘ – an einem neuen Zukunftsbild orientiert. Da jedoch ein neues Zukunftsbild mit anderen Zukunftsbildern in Konkurrenz und teils in Widerspruch steht, ist für dessen Durchsetzung ein komplexer und an sich ergebnisoffener Prozess loszutreten: institutionelles Unternehmertum.
Im Kontext von Zukunftsbildern bezeichnet institutionelles Unternehmertum den Prozess, durch den einzelne oder mehre Organisationen unterschiedlichen Typs – etwa produzierende Unternehmen, Regierungsbehörden, Medienunternehmen, Beratungsunternehmen, Universitäten sowie außeruniversitäre Forschungseinrichtungen – versuchen, ein neues Zukunftsbild zu institutionalisieren. Institutionelle Unternehmer, die dabei wesentlich beteiligten Organisationen, initiieren diesen Prozess und beteiligen sich aktiv daran, das neue Zukunftsbild zu etablieren. Analytisch besteht dieser Prozess aus zwei Phasen.
Die erste Phase, in der die ermöglichenden Bedingungen von institutionellem Unternehmertum im Mittelpunkt stehen, verweist auf den Einfluss von zwei interdependenten Bedingungsgruppen. (a) Zum einen spielen die Bedingungen der gesellschaftlichen Umwelt von Organisationen eine wesentliche Rolle. Zu grundlegenden Bedingungen zählen instabile gesellschaftliche Zustände; drängende Probleme, die potentiell Krisen vorausgehen; die Verfügbarkeit neuer Technologien; einschneidende Veränderungen in Regelwerken. Zu konkreten Bedingungen zählen Widersprüche zwischen etablierten Institutionen; die Existenz von alternativen Institutionen, die potentiell für dasselbe Problem angewandt werden können; die unterschiedliche Auslegung von Institutionen. (b) Zum anderen besitzt die soziale Position der institutionellen Unternehmer eine hohe Relevanz. Diese beschreibt, wie Organisationen ihre Umwelt interpretieren, über welche Ressourcen sie verfügen und welcher Status ihnen von anderen Organisationen zugeschrieben wird.
In der zweiten Phase des institutionellen Unternehmertums, der Implementierung der abweichenden Veränderungen, finden zwei Bündel von interdependenten Aktivitäten statt. (a) Zum einen erschaffen institutionelle Unternehmer eine Vision für das neue Zukunftsbild. Analytisch umfasst die Festlegung dieser Leitplanken für künftige Handlungen und Entscheidungen drei Dimensionen: der Zustand, der verändert wird, wird als zu lösendes Problem definiert; die abweichende Veränderung wird gegenüber bestehenden Zuständen als besser dargestellt; es werden überzeugende Gründe, warum die abweichende Veränderung unterstützt werden sollte, dargelegt. (b) Zum anderen mobilisieren institutionelle Unternehmer Verbündete dadurch, dass sie unterschiedliche Strategien anwenden. Bei rhetorischen Strategien werden Geschichten konstruiert, die Geschehnisse der Vergangenheit mit der abweichenden Veränderung verbinden sowie ‚Helden‘ und ‚Schurken‘ definieren. Bei ressourcenorientierten Strategien werden finanziellen Ressourcen freigesetzt und es wird in eine Verbesserung der sozialen Position investiert. Konkret werden hierbei mögliche formale Autoritäten genutzt und informale Beziehungen geknüpft.
Der konzeptionelle Beitrag detailliert den skizzierten Prozess des institutionellen Unternehmertums, an dessen Ziel die Institutionalisierung eines Zukunftsbildes steht und illustriert diesen am Beispiel von Industrie 4.0. Anhand dieses Zukunftsbildes der auf dem Internet und auf autonom agierender Betriebstechnik basierenden Fertigung lässt sich zeigen, wie das Zusammenspiel verschiedener Organisationen zu dessen Konkretisierung beitrug und auch weiterhin beiträgt.
Der wesentliche Beitrag dieser Analyse besteht darin, den Prozess der Konkretisierung von Zukunftsbildern zu detaillieren. Die Perspektive der neoinstitutionalistischen Organisationstheorie macht dabei zum einen deutlich, dass dieser Prozess nicht ‚top-down‘ verläuft, sondern ambivalent ist und von Organisationen mit unterschiedlichen Interessenslagen beeinflusst wird. Zum anderen wird die Rolle von Annahmen, Weltbildern und Werten bei der Konkretisierung von Zukunftsbildern präzisiert. Neben diesen kulturellen Deutungsmustern beeinflusst die soziale Position von Organisationen sowohl die Möglichkeit, Veränderungen zu initiieren, als auch die Möglichkeit, diese umzusetzen.
Georg REISCHAUER ist wissenschaftlicher Mitarbeiter an der Abteilung für Arbeitswissenschaft und Organisation der Technischen Universität Wien. Seine Forschungsschwerpunkte sind Wirtschafts- und Organisationssoziologie sowie Innovationsmanagement, Organisationsdesign und strategisches Management.
Basanta E.P. Thapa
Big Data Analytics zieht seine Wirkungsmacht weniger aus tatsächlichen technischen Neuerungen als vielmehr aus dem Nicht-Verständnis der Technik. Als Black Box, deren interne Prozesse und Algorithmen nur für technische Experten nachvollziehbar sind, bietet der Begriff eine ideale Projektionsfläche für Versprechen und Erwartungen, deren Gehalt mangels technischem Verständnis nicht überprüfbar ist. Bei genauerer Betrachtung zeigt sich zudem, dass unter dem Label Big Data auch zahlreiche altbekannte Analysetechniken gehandelt werden.
Eine kursorische Analyse der diskursiven Konstruktion der Black Box Big Data für den Einsatz im öffentlichen Sektor zeigt, dass insbesondere die Überwindung von Komplexität, gerade bei ‚wicked problems‘, und die Reduzierung von Unsicherheit, z.B. durch predictive analytics, zentrale Versprechen sind, welche Big Data zugeschrieben werden. Dies macht die Technologie hochattraktiv für Entscheidungsträger, denn die Komplexität von Problemzusammenhängen und die Unsicherheit über die Folgen verschiedener Handlungsoptionen sind klassische Herausforderungen der Entscheidungsfindung. Dabei wird auf das bekannte topos der rationalistischen Politik, also des Ersetzens von politischer Willensbildung durch vernunft- bzw. wissensbasierter Entscheidungsfindung zurückgegriffen, welches Politiker und Politikberater seit der Aufklärung fasziniert und zuletzt mit der Planungseuphorie der 1960er und der evidenzbasierten Politik der 2000er Aufwind erfuhr. Big Data ist jedoch durch das Blackboxing weniger angreifbar als frühere Inkarnationen der rationalistischen Politik und geht mit der Generierung von Zukunftswissen weit über diese hinaus.
Auffällig ist zudem, dass der Diskurs zu Big Data im öffentlichen Sektor vorwiegend von einschlägigen Softwareanbietern und Dienstleistern getrieben wird, welche die Black Box Big Data mit rationalistischen und technofideischen Versprechen aufladen. Von den Medien wird dieser Diskurs insofern reproduziert, als sich kritische Perspektiven meist mit Datenschutzfragen und Big-Brother-Szenarien beschäftigen, also mit erwarteten Folgen der Black Box Big Data, ohne die Black Box selbst zu öffnen.
Ebenfalls auffällig ist die Darstellung des Ausmaßes der Folgen von Big Data im öffentlichen Sektor. Während teilweise eine grundlegende Umwälzung der Art und Weise, wie politische Entscheidungen gefällt werden (‚agile policymaking‘), angekündigt wird, beschränken sich andere Stimmen auf überschaubare Effizienzgewinne durch den Einsatz von Big Data Analytisch.
Mit einer Analyse des globalen Diskurses zu Big Data im öffentlichen Sektor werden die zentralen Motive, wiederkehrende Argumentationsmuster und Meinungslager identifiziert. Dabei wird auf Publikationen von staatlicher Seite, Softwareanbietern und Dienstleistern, Beratungseinrichtungen, Fachmedien und allgemeinen Medien zurückgegriffen, um ein umfassendes und differenziertes Bild des Diskurses zu erhalten.
Diese Dekonstruktion der Black Box Big Data erlaubt weiterführend die Formulierung von Desideraten für eine kritische Technikfolgenabschätzung.
Basanta E.P. THAPA promoviert am DFG-Graduiertenkolleg „Wicked Problems, Contested Administrations: Knowledge, Coordination, Strategy“ der Universität Potsdam zu den wissenspolitischen Effekten von Big Data in Politik und Verwaltung. Zuvor studierte er Verwaltungs- und Politikwissenschaft sowie Volkswirtschaftslehre in Potsdam und Münster.
Judith Simon, Gernot Rieder
Das Interesse an der Sammlung und Auswertung von im Internetzeitalter rasch anwachsenden Datenmengen ist groß. Egal ob in Politik oder Wirtschaft, Schlagworte wie predictive analytics, real-time feedback oder smart algorithms diktieren gegenwärtige Denkhorizonte. Die Profession der DatenanalystIn gilt gemeinhin als zukunftssicher.
Für viele politische Akteure sind Big Data-Technologien in Zeiten anhaltender Krisen und grassierender epistemischer Unsicherheit (Nowotny et al. 2001) zu einer Art universalem Hoffnungsträger geworden. So erwartet man sich etwa eine verbesserte Ressourcenallokation und generelle Effizienzsteigerungen, einen signifikanten Produktivitätsgewinn und erhöhte Wettbewerbsfähigkeit sowie Kompetenzgewinne bei der Berechnung und Vorhersage zukünftiger Entwicklungen in faktisch allen wesentlichen staatlichen Aufgaben- und Zuständigkeitsbereichen (vgl. EC 2014b; EOP 2014). Insbesondere der zuletzt genannte Punkt, das Treffen von Entscheidungen auf Grundlage einer gesicherten Datenlage, ist in den vergangenen Jahren verstärkt in die Rhetorik politischer Machthaber eingeflossen und spiegelt die konkrete Absicht wieder, eine anstehende oder bereits getroffene Entscheidung durch Berufung auf Zahlen, Fakten und Statistiken zu validieren und so die Glaubwürdigkeit und Legitimität des Entschlusses zu gewähren. Sowohl die aktuelle Regierung der Vereinigten Staaten (Haskins 2014) als auch die Europäische Kommission können als Vorreiter und Interessenten solch einer “evidenzinformierten” (EC 2014a) Politik- und Entscheidungsfindungskultur genannt werden.
Politisches Interesse an statistischen Erhebungs- und Verwaltungstechniken ist historisch gesehen nichts Neues. Bereits im späten 18. und verstärkt ab dem 19. Jahrhundert gab es in Europa und den Vereinigten Staaten auf statistische Datenerhebung und -auswertung spezialisierte Institutionen (Desrosières 1998), ab den 1920er Jahren kamen dann auch vermehrt Kosten-Nutzen-Analysen zum Einsatz, welche die Öffentlichkeit von der Fairness politischer Initiativen überzeugen sollten (Porter 1995). Doch während das grundsätzliche Interesse des Staates in datenbasierter Entscheidungsfindung keinen unmittelbaren Umbruch darstellt, so lässt sich gegenwärtig unter dem Schlagwort Big Data doch eine deutliche Intensivierung solcher Bemühungen feststellen, die einerseits auf gewaltigen Fortschritten bei Technologien und Methoden der Datensammlung und -verarbeitung beruht, die sich andererseits aber auch durch die Prominenz und den hohen Stellenwert, den statistisch erhobene Daten aktuell genießen, auszeichnet (Leonelli 2014).
Unser Beitrag möchte sich mit der fortschreitenden Verknüpfung von Daten und politischer Entscheidungsfindung auseinandersetzen und hierbei insbesondere auf die Verschränkung von Big Data als Wissens- und Regierungsinstrument fokussieren.
Die Verschränkung von Wissen und Entscheiden bzw. Wissen und Handeln ist natürlich kein alleiniges Spezifikum von Big Data Praktiken, ist sie doch beispielsweise auch Basis der Disziplin der Technikfolgenabschätzung. Technikfolgenabschätzung, vor allem (aber nicht ausschließlich) in ihrer parlamentarischen Variante, soll Wissen erzeugen und bereitstellen, welches politischen AkteurInnen mitunter direkt als Entscheidungshilfe dienen soll. So eingesetzt kann von der TA erarbeitetes Wissen zur Rechtfertigung politischen Handelns herangezogen werden, doch muss eben jenes Wissen auch epistemisch gerechtfertigt sein, d.h. den Ansprüchen wissenschaftlicher Rechtfertigung und Standards genügen.
Eine Frage, die sich stellt, ist, ob sich ein Vergleich der Rechtfertigungsstrukturen von Big Data und TA-Praktiken lohnt und was die beiden Felder gegebenenfalls voneinander lernen können. Vor allem in Bezug auf die Voraussage der Zukunft – das Potential zur Prädiktion und Präskription – scheint Big Data der Technikfolgenabschätzung voraus, zumindest was die wahrgenommene Leistung und die damit verbundenen Hoffnungen betrifft. Wenn beide Felder dementsprechend nicht nur als komplementär, sondern auch als in Konkurrenz stehend begriffen werden müssen, stellt sich zudem die Frage, ob und wenn ja in welcher Form sich die Technikfolgenabschätzung ändern müsste, um im Big Data-Zeitalter relevant zu bleiben.
Unsere Analyse von Big Data-Praktiken im Vergleich zu Praktiken der TA wird sich insbesondere auf die folgenden Aspekte beziehen:
- Kompetenz und Konkurrenz: Welche neuen Kompetenzen werden unter Umständen für die TA von Nöten sein? Wie werden sich die Rollen von TA-Institutionen verändern und welche neuen Akteure könnten in ein Konkurrenzverhältnis zur TA treten?
- Transparenz: Während Transparenz in der TA von zentraler Bedeutung ist, zeichnen sich Big Data-Praktiken häufig durch einen Mangel an Transparenz aus. Wie kann diesem Problem begegnet werden?
- Gerechtigkeit: Die Analyse von Big Data-Praktiken setzt Kompetenz in der Datenanalyse sowie Zugang zu den Daten voraus. Wie kann sichergestellt werden, dass ausreichend diverse Akteure sowohl über Zugang als auch entsprechende Kompetenzen verfügen?
- Macht: Fragen der Macht sind inhärent in der Verschränkung von Wissen, Entscheiden und Handeln. Wie wird dieses Verhältnis neu verhandelt im Falle von Big Data? Welche Lektionen können aus der Geschichte der TA gezogen werden?
- Verteilte Verantwortlichkeit: Was sind die jeweiligen Verantwortlichkeiten unterschiedlicher Akteure um Transparenz, Gerechtigkeit und eine faire Verteilung von Macht und Verantwortlichkeit sicherzustellen?
Literatur:
Desrosières, Alain (1998) The Politics of Large Numbers: A History of Statistical Reasoning. Cambridge, MA: Harvard University Press.
European Commission (EC) (2014a) Data Technologies for Evidence-Informed Policy-Making. Available at: ec.europa.eu/digital-agenda/en/news/data-technologies-evidence-informed-policy-making-including-big-data-smart-20140004.
European Commission (EC) (2014b) Towards a Thriving Data-Driven Economy. Communication from the European Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions. Available at: ec.europa.eu/information_society/newsroom/cf/dae/document.cfm.
Executive Office of the President (2014) Big Data: Seizing Opportunities, Preserving Values. Available at: www.whitehouse.gov/sites/default/files/docs/big_data_privacy_report_5.1.14_final_print.pdf.
Haskins, Ron (2014) Show Me the Evidence: Obama’s Fight for Rigor and Results in Social Policy. Washington, D.C.: The Brookings Institution.
Leonelli, Sabina (2014) “What Difference Does Quantity Make? On the Epistemology of Big Data in Biology.” In: Big Data & Society, April-June 2014.
Nowotny, Helga; Scott, Peter; Gibbons, Michael (2001) Re-Thinking Science: Knowledge and the Public in an Age of Uncertainty. Cambridge: Polity Press.
Porter, Theodore M. (1995) Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton, NJ: Princeton University Press.
Judith SIMON ist Associate Professorin für Philosophy of Science and Technology an der IT University Copenhagen sowie FWF-Projektleiterin an der Universität Wien. Sie ist Co-Editorin der Journals Philosophy & Technology sowie Big Data & Society: Critical Interdisciplinary Inquiries und forscht unter anderem zum Verhältnis von Wissen, Vertrauen, Verantwortlichkeit und Technologie. Im Jahr 2013 erhielt sie den Herbert A. Simon-Award der International Association of Computing and Philosophy.
Gernot RIEDER ist Doktorand an der IT University of Copenhagen sowie wissenschaftlicher Mitarbeiter im FWF-Projekt Epistemic Trust in Socio-Technical Epistemic Systems. Seine Dissertation beschäftigt sich mit der Konjunktur und Geschichte evidenzbasierter Politik sowie den sozialen und gesellschaftlichen Implikationen des Big Data-Phänomens. Gernot ist als Assistant Editor beim SAGE-Journal Big Data & Society tätig.
Die AutorInnen danken dem österreichischen FWF (P 23770) für die Förderung des vorliegenden Forschungsbeitrags.
Reinhard Heil
Die Erzeugung, Verknüpfung und Auswertung von großen Datenmengen (oft als „Big Data“ bezeichnet) gewinnt in nahezu allen Lebensbereichen rasant an Bedeutung. Durch den umfassenden Einsatz vernetzter Computertechnologie kam es in den letzten Jahren zu einer Vervielfachung von Datenquellen. Diese reichen von Smartphones, sozialen Netzwerken und Surfverhalten bis hin zur Vernetzung der Alltagswelt durch das Internet der Dinge (z.B. durch „smarte“ Kleidung, Uhren, Häuser und Stromnetze). Gleichzeitig ergeben sich durch Verknüpfung dieser Datenquellen und Fortschritte in der Hard- und Software-Technologie umfangreiche neuartige Auswertungsmöglichkeiten, die sich auf nahezu alle Lebensbereiche und Wirtschaftssektoren auswirken.
Mit dieser Entwicklung sind Fragen von erheblicher gesellschaftlicher Relevanz verbunden: etwa nach kommerzieller oder staatlicher Überwachung, informationeller Selbstbestimmung und Schutz der Privatsphäre, nach den Problemen von Intransparenz, Missbrauch oder Fehlern bei Datenverwendungen oder bei automatisierten Entscheidungen. Die gesellschaftlichen Diskussionen über eine neue Balance zwischen der Ausschöpfung von Innovationspotentialen einerseits und der Realisierung individueller und gesellschaftlicher Wert andererseits haben erst begonnen.
Im Rahmen des Schwerpunkts „IKT 2020 - Forschung für Innovationen“ fördert das deutsche Ministerium für Bildung und Wissenschaft (BMBF) ein umfangreiches interdisziplinäres Begleitprojekt: ABIDA – Assessing Big Data, welches den oben angeführten Fragen nachgehen wird. Durchgeführt wird das Projekt von sechs Partnern: Institut für Technikfolgenabschätzung und Systemanalyse (ITAS/KIT), Westfälische Wilhelms-Universität, Leibniz Universität Hannover, Technische Universität Dortmund, Ludwig-Maximilians-Universität München und dem Wissenschaftszentrum Berlin für Sozialforschung. Das ITAS und die Universität Münster sind federführend.
Ein Ziel des Projekts ist die Erfassung und Beurteilung der vielschichtigen Entwicklungen von Big Data Anwendungen, Datenströmen und Geschäftsmodellen. Hierzu werden interdisziplinäre Vertiefungsstudien erstellt, in die die Ergebnisse von ExpertInnenworkshops und begleitende Fokusgruppen einfließen. Ein weiteres Ziel ist es, die Einschätzungen und Erwartungen der BürgerInnen zu erkennen. Hierzu werden drei BürgerInnenkonferenzen an verschiedenen Orten der Bundesrepublik abgehalten und durch eine repräsentative Bevölkerungsumfrage ergänzt.
Auf der Grundlage der gesamten Forschungsarbeiten und dadurch, dass mögliche künftige Entwicklungen in Szenarien und einer Expertendelphi abgeschätzt und diskutiert werden, werden schließlich Handlungsoptionen für Politik, Forschung und Entwicklung erarbeitet.
Einer der ITAS Schwerpunkte innerhalb des Projekts ist die Erstellung von Szenarien, die als Diskussionsgrundlage in ExpertInnenworkshops, Fokusgruppen, Delphi und BürgerInnenkonferenzen genutzt werden. Szenarien dienen unterschiedlichen Zwecken u.a. dem Aufzeigen von möglichen Zukünften. Zukunftsszenarien dienen nicht der Vorhersehung einer konkreten Zukunft, sondern sie fächern einen Möglichkeitsraum auf, der es erlaubt Entwicklungen in der Gegenwart kritisch zu bewerten.
Nach der Vorstellung des Projekts geht der Vortrag auf die Möglichkeiten, die die Entwicklung von Zukunftsszenarien für die TA von Big Data bietet, ein, widmet sich aber auch den grundsätzlichen Beschränkungen von Zukunftsszenarien. Praktisch gewendet wird dies anhand der Analyse (Vision Assessment, Grunwald 2008) zweier in den Debatten zu Big Data in unterschiedlichen Varianten vorkommenden Leitvisionen: Zum einen der „Hope-Vision“, in der vor allem ausgesprochen positive Zukunftsszenarien ihren Ort finden (mehr Sicherheit, mehr Gesundheit, mehr Wohlstand), zum anderen der „Fear-Vision“, in der vor allem negative Zukunftsszenarien artikuliert werden (totale Überwachung aller Individuen, Gleichschaltung, der Verlust jedes kritischen Denkens). Im Falle von Big Data sind Hoffnung wie Furcht verbunden mit einer neuzeitlichen Idee, die niemals ganz ihre Wirkungen verloren hat, nun aber wieder in voller Blüte steht: die (prinzipielle) Berechenbarkeit der Welt, das Erzeugen totaler Transparenz und Kontrolle. Je mehr Daten, desto mehr Korrelationsmöglichkeiten, desto bessere Prognosen. Diese Idee steht dem Verständnis der (Post)Moderne von Zukünften als kontingente und offene Prozesse diametral entgegen.
Projekt: ABIDA (Assessing Big Data)
Webseite: www.itas.kit.edu/projekte_grun15_abida.php
Literatur:
Grunwald, A. (2008): Technik und Politikberatung. Philosophische Perspektiven. Frankfurt am Main: Suhrkamp.
Liebert, W., Schmidt, J. (2012): Zukunftswissen und Technikfolgenabschatzung. In: Decker, M.; Grunwald, A.; Knapp, M. (Hrsg.), Der Systemblick auf Innovation. Technikfolgenabschätzung in der Technikgestaltung. Berlin: edition sigma 2012, 283-292.
Reinhard HEIL ist wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT). Er studierte Philosophie, Soziologie und Literaturwissenschaft an der Technischen Universität Darmstadt. Seine aktuellen Forschungsschwerpunkte sind Big Data, Synthetische Biologie, Epigenetik und Vision Assessment.
Publikationen (Big Data):
Heil, R.; Orwat, C. Big Data und die Folgen für den Einzelnen. Vortrag auf dem Big Data Summit 2015 - "Big Data - Einsatzerfahrungen, Entscheidungsprozesse, Effekte", Hanau; Heil, R.; Sumpf, P. Big data - hype, hope, fear. Vortrag im Rahmen des Workshops "Big data und Gesellschaft: interdisziplinäre Analysen - INFORMATIK 2014", Stuttgart.
Ingrid Schneider
Die euphorische Sicht auf die demokratiestärkende Wirkung des Internets ist spätestens seit den Snowden-Enthüllungen einer großen Ernüchterung gewichen. Die umfassende Digitalisierung aller Lebensbereiche, die Erhebung und Übermittlung von Metadaten, die Erfassung von Vorlieben und Verhalten über "smarte" Geräte, das "Internet der Dinge" und die intransparente Weitergabe von Daten an wirtschaftliche Akteure und Geheimdienste werfen die Frage auf, ob und wie die Privatsphäre noch zu schützen ist. Führt Big Data zu Big Brother? Wie ist Privatheit, aber auch demokratische Öffentlichkeit sowie die Funktionsfähigkeit von globalen Kommunikationsinfrastrukturen, durch Regulation zu schützen und zu verteidigen?
Der Beitrag befasst sich zunächst aus politikwissenschaftlicher Perspektive mit verschiedenen Framings von Privatheit, deren sozialem Wert (Rössler 2002, Bennett/Raab 2006) und einem demokratietheoretischen Ansatz zur Funktion von Öffentlichkeit (Habermas 1962, Peters 2007). Befragt werden sodann gängige Governance-Typen (Hierarchie, Markt, Netzwerk; regulierte Selbstregulierung, rechtliche Regulierung, Gerichte und staatliche Agenturen als Regulativ) daraufhin, welchen Beitrag sie zur Governance der Digitalisierung in einer Informations-Weltgesellschaft leisten können. Hier soll exploriert werden, welche Institutionen bisher den Datenschutz national und in der EU gestärkt haben und welche Regulations-Modelle daraus gegebenenfalls für die Zukunft abzuleiten sind, um die Privatsphäre, Grund- und Freiheitsrechte zu schützen und den Raum des öffentlichen Diskurses, der für ein deliberatives Verständnis von Demokratie unabdingbar ist, funktionsfähig zu erhalten.
These des Beitrags ist, dass es bisher weniger die Parlamente und die Exekutive waren, die einem wirksamen Datenschutz zum Durchbruch verholfen haben. Eine stärkere Rolle als Institutionen hatten die Verfassungsgerichte und die Datenschutzbeauftragten und -agenturen. Für die Bundesrepublik Deutschland waren es vor allem zwei Urteile des Bundesverfassungsgerichts, welche eine Neuschöpfung von informationeller Selbstbestimmung und der Vertraulichkeit und Integrität informationstechnischer Systeme aus dem allgemeinen Persönlichkeitsrecht und anderen Grundrechten abgeleitet haben. In der EU sind es das EuGH-Urteil zur Vorratsdatenspeicherung und das EuGH- Google-Urteil zum "Recht auf Vergessen", die eine Neuorientierung eingeleitet haben. Auch der Europäische Gerichtshof für Menschenrechte EGMR dürfte zukünftig eine wichtigere Rolle spielen. Schließlich wird es auch um eine Auseinandersetzung mit der Datenschutzgrundverordnung der EU gehen, die beansprucht, höhere Schutzstandards zu verankern.
Der Beitrag hat vor allem explorativ-konzeptionellen Charakter. Es geht um Begründungsmuster, Prinzipien, Regeln und Institutionen des Datenschutzes in der EU und um die Weiterentwicklung einer profunden Auseinandersetzung mit dem Wert von Privatsphäre und Öffentlichkeit für die Demokratie.
Literatur:
Bennett, C.J./ Raab, C.D. (2006). The governance of privacy: policy instruments in global perspective. Cambridge Mass.: MIT Press.
EGE 2014: Opinion of the European Group on Ethics in Science and New Technologies to the European Commission. Opinion No 28. Ethics of Security and Surveillance Technologies, Brussels, 20 May 2014
Habermas, Jürgen (1962). Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt am Main: Suhrkamp.
Peters, Bernhard (2007). Der Sinn von Öffentlichkeit. Frankfurt am Main: Suhrkamp.
Rössler, B.(2002).Der Wert des Privaten. Frankfurt a.M.: Suhrkamp
Prof. Dr. Ingrid SCHNEIDER lehrt am Institut für Politikwissenschaft und ist wissenschaftliche Mitarbeiterin des FSP BIOGUM (Biotechnologie, Gesellschaft und Umwelt) der Universität Hamburg. Sie hat zu TA und Demokratietheorie, Policy-Analyse, Recht und Politik, geistigem Eigentum, Bio-Daten und zu Datenschutz gearbeitet und gibt ein Buch heraus zum Thema " Zur Rolle der Gerichte bei der Policy-Entwicklung im europäischen Mehrebenensystem (Nomos 2015, mit Britta Rehder).
E-mail: Ingrid.Schneider @ uni-hamburg.de
Stefan Böschen, Stefan May, Simona Wieser
Religiöse Heilsgewissheit, wissenschaftliche Erkenntnis und pragmatische Erwartungssicherheit rationalisieren den Umgang mit dem Unbekannten der Zukunft. Insbesondere der Wissenschaft kam in Verbindung mit dem Recht hier eine zentrale Stellung als Ressource für Gewissheiten zu. Gegenwärtig jedoch wandelt sich die Lage in dem Maße, als ebenso entfernte Räume und ferne Zukünfte zum Gegenstand von Entscheidungen und damit Verantwortung werden. Risikoreiche Handlungs- und Nichthandlungsfolgen stehen einander gegenüber und im Rahmen von Risikodiskursen droht modernen Gesellschaften ihre Zukunftsperspektive politisch verloren zu gehen: Der Risikodiskurs selbst wird risikoreich (Beck 2007). Das dahinter stehende Problem verdankt sich letztlich dem Auseinandertreten von Erfahrungsraum und Erwartungshorizont (Koselleck 1995). Mit den Erfahrungen der Vergangenheit und ihrer Institutionalisierung lassen sich immer weniger die Fragen der Zukunft lösen (Hiller 1993).
Im „Anthropozän“ gibt es keine Masterpläne und schon gar keinen Masterplan. Vielmehr tritt immer deutlicher zu Tage, wie jedes Entwerfen und Einholen den Charakter eines „Realexperiments“ bzw. „kollektiven Experiments“ erhält (Böschen 2013). Diese Experimente werden als solche oftmals erst im Nachhinein erkannt. Das ist mindestens tragisch, wenn nicht gar riskant. Deshalb müssen Strategien gefunden und etabliert werden, die ein möglichst risikoarmes Erkunden von Zukunft erlauben. So stellt sich die Frage, ob nicht das Experimentieren als eine kollektive Strategie aktiv angewendet werden kann. Erste Ansätze hierzu finden sich schon, die unter dem Titel „Reallabore“ diese Form des gemeinsamen Erprobens von Zukunft annehmen. Unsere These ist nun, dass solche Formen des kollektiven Experimentierens nur dann funktionieren können, wenn auch der institutionelle Rahmen durch Selbstbindung genauer bestimmt wird.
Die Eröffnung wie Begrenzung von Räumen kollektiven Experimentierens durch Selbstbindung stellt auf mindestens zwei Aspekte ab. Zum einen der Aspekt des Wissens. Experimente sind kein Selbstzweck, sondern in ihnen soll verbindliches und funktionales Wissen hervorgebracht werden. Bei Laborexperimenten selbstverständlich, stellt sich dies bei kollektiven Experimenten als Herausforderung der Perspektivierung und Validierung von Wissen im Spannungsfeld unterschiedlicher epistemischer Stile wie praktischer Interessen dar. Zum anderen den Aspekt der Transparenz. Durch Selbstbindung wird explizit eine Entscheidung über Art und Umfang des Erlaubten und Nicht-Erlaubten beim Experimentieren getroffen. Dadurch erhält der Aspekt der Wissensgenese einen legitimierten Rahmen. Kollektive Selbstbindung erfordert immer eine Institutionalisierung. Nur dadurch lässt sich ein verbindliches und legitimes Setting des Experimentierens definieren. An unterschiedlichen Fallbeispielen soll der Frage nachgegangen werden, inwieweit dies geschieht – oder nicht. In diesem Sinne kann anhand der Figur der Selbstbindung eine kritische Analyse kollektiven Experimentierens entfaltet werden. Inwieweit wird durch die Etablierung von Settings kollektiven Experimentierens die Zukunft in der Gegenwart nicht nur repräsentiert, sondern auch institutionell zu zähmen versucht und inwieweit gelingt dies?
Literatur:
Beck, U. (2007): Weltrisikogesellschaft. Frankfurt am Main: Suhrkamp.
Böschen, S. (2013): Modes of Constructing Evidence: Sustainable Development as Social Experimentation—The Cases of Chemical Regulations and Climate Change Politics. In: Nature and Culture 8(1), S. 74–96.
Hiller, P. (1993): Der Zeitkonflikt in der Risikogesellschaft. Risiko und Zeitorientierung in rechtsförmigen Verwaltungsentscheidungen. Berlin: Duncker & Humboldt.
Koselleck, R. (1995): „Erfahrungsraum“ und „Erwartungshorizont“ – zwei historische Kategorien. In: ders.: Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt am Main: Suhrkamp, S. 349-375.
Stefan BÖSCHEN: Leiter Forschungsbereich Wissensgesellschaft und Wissenspolitik am ITAS, KIT Karlsruhe. Forschungsschwerpunkte: Sozialwissenschaftliche Wissenschafts- und Technikforschung, Technikfolgenabschätzung, Institutionenanalyse.
Stefan MAY: Wissenschaftlicher Mitarbeiter am Lehrstuhl Prof. Nassehi Ludwig-Maximilians-Universität München. Forschungsschwerpunkte: Politische Soziologie, Rechtssoziologie, Medizinsoziologie.
Simona WIESER: Wissenschaftliche Mitarbeiterin am Lehrstuhl Prof. Nassehi Ludwig-Maximilians-Universität München. Forschungsschwerpunkte: Politische Soziologie, Wissenssoziologie, Rechtssoziologie.
Die AutorInnen arbeiten gegenwärtig gemeinsam an dem Forschungsprojekt „Optionssteigerung durch produktive Selbstbeschränkung? Resiliente Strukturen experimenteller Institutionalisierung“, gefördert durch das Bayerisches Staatsministerium für Forschung, Wissenschaft und Kunst (01.06.2013-31.05.2017)
Martin Meister, Ingo Schulz-Schaeffer
Die meisten Studien zur Wirksamkeit von technischen Zukunftsvorstellungen beziehen sich auf forschungspolitische Zusammenhänge und thematisieren den Einsatz solcher Vorstellungen als Instrumente der Planung, der gesellschaftlichen Abwägung von strittigen Optionen, der politischen Auseinandersetzung oder auch der Partizipation von Stakeholdern. In unserem Beitrag geht es dagegen um die Frage, inwieweit Zukunftsvorstellungen – ob nun intentional als Instrument eingesetzt oder nicht – den konkreten Technikentwicklungsprozess orientieren. Diese Orientierung kann auf verschiedene Weise geschehen. Die ausgedachte Zukunft kann direkt die Wahl von Forschungsfragestellungen oder technische Designentscheidungen beeinflussen. Sie kann die Plausibilität bestimmter Domänen als Anwendungsmöglichkeit für bestehende Technik erhöhen oder diese Plausibilität überhaupt erst generieren. Sie kann aber auch umgekehrt eine bestimmte grundsätzliche Ausrichtung von zukünftiger Forschung und Entwicklung als gesellschaftlich wünschenswert und technisch attraktiv erscheinen lassen (oder, dystopisch, abschreckend wirken).
In unserem Beitrag wollen wir einen Vorschlag präsentieren, wie sich diese und einige weitere Arten der Wirksamkeit von Zukunftsvorstellungen, die wir an empirischem Material identifiziert haben, auf einem höheren Generalisierungsniveau in ein Modell der Dimensionen dieser Wirksamkeit einfügen lassen. Damit wollen wir dazu beitragen, zu einer die empirischen Einzelfälle übergreifenden Konzeptualisierung der Frage nach der Wirksamkeit von technischen Zukunftsvorstellungen zu gelangen, die es dann erlauben könnte, auch die Ergebnisse anderer Forschungen dazu systematisch in Beziehung zu setzen.
Die Empirie, auf die wir uns beziehen, stammt aus einem fast abgeschlossenen DFG-Projekt, das die kognitive Orientierungswirkung von zwei Klassen von Zukunftsvorstellungen empirisch untersucht: erstens eher vage Visionen und zweitens Situationsszenarien, die die zukünftigen technischen Komponenten, deren Performance und technisches Zusammenwirken sowie die Nutzungsmöglichkeiten sehr konkret – eben in der Schilderung einer konkreten zukünftigen Anwendungssituation – ausbuchstabierten. Dies geschieht in zwei aktuellen Forschungsfeldern vergleichend: Dem Ubiquitous Computing und der Nanomedizin, und in den Regionen EU, USA und Japan, wo wir entsprechende Interviews durchgeführt haben.
Unser Beitrag ist wie folgt aufgebaut: Wir skizzieren eingangs nur sehr kurz das Projekt und seine Fragestellung, stellen anschließend an anschaulichen Einzelbeispielen dar, auf welchem Wege wir zu den genannten generelleren Dimensionen der Wirksamkeit von Zukunftsvorstellungen gelangt sind, um abschließend das vorläufige Modell in zugespitzter Form zur Diskussion zu stellen.
Dr. Martin MEISTER: WM am Institut für Soziologie der Universität Duisburg-Essen; Schwerpunkte: Techniksoziologie, soziologische Handlungstheorie, Robotik
Literatur:
Meister, Martin, 2014: When is a Robot really Social? An Outline of the Robot Sociologicus. In: Sti-Studies 10 (1), 85-106 <http://www.sti-studies.de/ojs/index.php/sti/article/view/145>.
Meister, Martin/ Marcelo Pias/ Eric Töpfer/ George Coulouris, 2008: Application Scenarios for Cooperation Objects and their Social, Legal and Ethical Challenges. In: Michahelles, Florian (eds.), First International Conference on The Internet of Things. Adjunct Prodeedings, Zürich, 92-97.
Prof. Dr. Ingo SCHULZ-SCHAEFFERr: Lehrstuhl für Allgemeine Soziologie/Soziologische Theorie am Institut für Soziologie der Universität Duisburg-Essen; Schwerpunkte: Soziologische Theorie, Techniksoziologie
Literatur:
Schulz-Schaeffer, Ingo (2013):Scenarios as Patterns of Orientation in Technology Development and Technology Assessment. Outline of a Research Program, in: Science, Technology & Innovation Studies 9(1), 23-44.
Schulz-Schaeffer, Ingo (2007): Zugeschriebene Handlungen. Ein Beitrag zur Theorie sozialen Handelns. Weilerswist: Velbrück.
Rammert, Werner/ Schulz-Schaeffer, Ingo (2002): Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. In: Werner Rammert/ Ingo Schulz-Schaeffer (Hrsg.), Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik, Frankfurt/Main u.a.: Campus, S. 11-64.
Michael Goldhammer
Von der Wahl des Ehepartners, über Investitionsentscheidungen bis hin zum Alltagsvertrauen im Straßenverkehr fällen Menschen täglich Entscheidungen für die Zukunft, obwohl sie die tatsächliche Entwicklung allenfalls abschätzen können.
Auch der Staat muss fortwährend Prognoseentscheidungen treffen: Soll ein Mörder nach dem Strafvollzug besser noch in Verwahrung bleiben? Ist Kernkraft oder Gentechnik beherrschbar? Wie wird sich die Bevölkerung im Blick auf die Sozialsysteme demographisch entwickeln?
Anders als bei privaten Prognosen, denen man bisweilen auch Irrationalität oder gar Wagemut zugesteht, erwarten wir von Zukunftsentscheidungen staatlicher Hoheitsträger oft ein Höchstmaß an Sicherheit, denn schließlich geht es hier um äußeren Zwang und Fremdbestimmung. Prognoseentscheidungen und Ausübung öffentlicher Macht liegen eng beieinander.
Es gilt daher vielen als erstrebenswert, prognostische Unsicherheiten möglichst zu minimieren oder gar auszuschließen. Vor allem durch Recht wird versucht, den fragilen Zusammenhang von Gegenwart und Zukunft zu stabilisieren. Dies soll einerseits durch eine enge Bindung an Theorien und Modelle gelingen, mehr noch aber spielen hier überzeitliche Großformeln eine Rolle. Diese Strategien zeigen sich immer dann, wenn verfassungsrechtliche Menschenbilder postuliert werden, ökonomische Theorien Verläufe angeben sollen, Vertrauensschutz, Rechtssicherheit oder Nachhaltigkeit als Werte an sich verstanden oder Menschenrechte als objektive Ordnung interpretiert werden. Der unsicheren Faktizität will man so mit normativer Stabilität begegnen.
Der Beitrag hält dem dagegen, dass es in verfassten Gemeinwesen nicht nur in tatsächlicher Hinsicht kaum sinnvoll ist, mit objektiven Zukunftsbildern zu operieren. Er erläutert vielmehr in einem zweiten Schritt, dass dies aus normativen Gründen auch kein erstrebenswertes Ziel sein kann.
Denn nicht nur hat die demokratische Staatsform mit ihren wechselnden Mehrheiten und öffentlichen Meinungen, die Veränderbarkeit der heutigen Verhältnisse im Blick auf die Zukunft geradezu konstitutionalisiert. Nur die nicht schon determinierte Zukunft lässt Raum für demokratische Entscheidungen.
Es kommt vielmehr noch hinzu, dass, wenn von Prognosen im Verfassungsstaat die Rede ist, sich dahinter ein komplexes System sich wechselseitig beeinflussender Träger öffentlicher Gewalt verbirgt, die ihre je eigenen Zukunftsbilder erzeugen, weil sie ganz unterschiedlich zusammengesetzt und befähigt sind.
So hat schon das Wahlvolk typischerweise eine sehr ausdifferenzierte Gegenwartswahrnehmung und eine ebenso breite prognostische Varianz in zeitlicher Hinsicht, die von kurzfristigen Interessen bis zu Lebensperspektiven reicht. Ein Parlament und die zugehörigen Parteien nehmen die Gegenwart dagegen selektiver war und haben den mittleren Horizont der Wahlperiode im Blick. Dem wiederum stehen Gerichte gegenüber, die bei der Entscheidung konkreter Fälle regelmäßig eine sehr hohe Faktendichte zur Verfügung haben und Prognosen, zumal wenn sie zu Lasten von Grundrechtsträgern gehen, genau begründet wissen wollen.
Dass sich Gegenwartswahrnehmung und Zukunftsbilder institutionell ausdifferenzieren, ist in der Demokratie also kein Defizit, sondern schlicht wesensnotwendig.
Dann aber wäre es eine widersprüchliche Strategie, Prognosen objektivieren zu wollen. Dies ist schon im Blick auf die Fakten kaum möglich. Aber selbst bei exakter Tatsachenkenntnis kann sich im Zeitverlauf die Wertung dieser Fakten verändern. Man führe sich nur die gesellschaftliche Haltung gegenüber der Atomenergie, der Gentechnik oder bestimmter familienpolitischer Fragen vor Augen.
Welchen Maßstab kann in der Konsequenz der Verfassungsstaat dann für Prognosen noch bieten, wenn die normative Kraft objektiver Zukunftsdeutung äußerst beschränkt ist?
Im Dreiklang von Entscheidung, Durchführung und Kontrolle (Loewenstein) erzeugt der Verfassungsstaat durch seine Institutionen eine Bandbreite unterschiedlicher Gegenwartswahrnehmungen und Zukunftsbilder.
Die darin enthaltenen Wissensdefizite erzeugen aber dann einen fruchtbaren Dialog der Gewalten mit je aktuellen Gegenwarten und korrigierten Zukünften, wenn das institutionelle Setting es zulässt, dass der Erkenntnisprozess nicht zum Stillstand kommt und schon gar nicht durch eine Gewalt bestimmte Fragen abschließend entschieden werden.
Solche Mechanismen der Selbst- und Fremdkorrektur bestehen typischerweise schon, wenn man sich die wechselseitige Modifikation öffentlicher Zukunftsbilder vor Augen führt, die sich etwa dann vollzieht, wenn eine Parlamentsmehrheit ihre Erwartungen in Gesetzesform gießt, diese Jahre später von einem Verfassungsgericht (mit dann neuem Wissen) bestätigt oder modifiziert werden und all dies – wieder Jahre später – vom Wahlvolk nun ganz neu bewertet wird.
Der Beitrag wirbt dafür, die schon bestehenden Formen des institutionalisierten Ringens um die Deutungshoheit zu erkennen, sie zu verbessern und neue „Entdeckungsverfahren“ zu ermöglichen, statt sich im Versuch zu verlieren, Prognosen immer weiter materiell abzusichern und Risiken zu vermeiden.
Dass diese Strategie von zwei Seiten aus notwendige Begrenzungen erfährt, nämlich vom Kriterium der Reversibilität und vom Grundrechtsschutz, tut dem so eröffneten und institutionell gestützten Freiraum des Prognoseverfahrens dann kaum Abbruch, wenn der Verfassungsstaat dem Drang zu Sicherheit und überwölbenden Zukunftsbildern entsagt.
Literatur:
Vermeule, Adrian, Judging Under Uncertainty, 2006.
Farber, Daniel A., Uncertainty, 99 Georgetown Law Journal 901 (2011).
Karl R. Popper, Logik der Forschung, 1934.
Albert, Hans, Theorie und Prognose in den Sozialwissenschaften, SJES 93/1957,
Philippi, Klaus Jürgen, Tatsachenfeststellungen des Bundesverfassungsgerichts, 1971.
Di Fabio, Udo, Risikoentscheidungen im Rechtsstaat, 1994.
Bryde, Brun-Otto, Tatsachenfeststellungen und soziale Wirklichkeit in der Rechtsprechung des Bundesverfassungsgerichts, in: Badura P., Dreier H. (Hrsg.), Verfassungsgerichtsbarkeit und Verfassungsprozess (2001), S. 533 ff.
Michael GOLDHAMMER ist seit 2012 Akademischer Rat an der Universität Bayreuth. Er arbeitet dort im Staats- und Verwaltungsrecht sowie in der Rechtstheorie und ist Autor verschiedener Beiträge in diesen Bereichen. Studiert hat er in Bayreuth und Michigan. 2011 wurde Goldhammer mit der Dissertation „Geistiges Eigentum und Eigentumstheorie“ (Mohr Siebeck [2012]) promoviert. Zu seinen laufenden Projekten gehören (u.a.) eine Untersuchung der Prognoseentscheidung im Öffentlichen Recht (Habilitationsschrift) und eine Kommentierung zu Verhältnismäßigkeit und Ermessen im Polizeirecht.
Veronika Schmid, Sebastian Schmid
Moderne Gesellschaften zeichnen sich durch stetigen gesellschaftlichen Wandel und die rasante Zunahme technischer Innovationen aus. Charakteristisch für die Neuzeit ist, so Habermas (1985: 141), die „Erwartung der Andersartigkeit der Zukunft“. Gegenwärtig scheint aber die Gesellschaft zunehmend ihren „Charakter als politisch zu gestaltendes Projekt“ (Rosa 2005: 437) zu verlieren. Grund hierfür ist Rosa zufolge das zeitliche Auseinandertreten einer zunehmend beschleunigten gesellschaftlichen Strukturentwicklung (aufgrund von technischen Geschwindigkeitssteigerungen im Bereich Kommunikation, Transport, Produktion, Handel etc.) und dem „Nachhinken“ der politischen Steuerung. Die für die Moderne typische Erfahrung von Zeit als gerichtete, kontrollierbare und stetig voranschreitende Entwicklung werde ersetzt durch die paradoxale Wahrnehmung einer erstarrten, gleichzeitig aber unaufhaltsamen Steigerungslogik. Anstatt aktiv zu gestalten, reagiere die Politik nur noch situativ auf die jeweiligen (scheinbar unaufhaltbaren) Entwicklungen. Daraus folge in letzter Konsequenz dass die zunehmend beschleunigte Modernisierung und der mit ihr einhergehende (politische) Steuerungs-, Kontroll- und Sinnverlust als schicksalhaft und letztlich unabwendbar wahrgenommen werden.
Im Mittelpunkt des Beitrags soll daher die Frage stehen, als wie veränderbar Gesellschaft generell wahrgenommen wird. Auf der Grundlage eines Mixed-Method-Designs wird untersucht, ob und in welcher Hinsicht die Zukunft anders als die Gegenwart wahrgenommen wird. Wird Gesellschaft z.B. rein statisch als eine unveränderbare Tatsache begriffen oder wird sie als veränderbar und veränderungsbedürftig wahrgenommen? Und gibt es tatsächlich die von Rosa unterstellten unterschiedlichen Zukunftslogiken im Bereich der Technik (Logik der Steigerung, der fortschreitende Verbesserung) und im Bereich des Sozialen (Logik der Stagnation, der Beharrung)? Dazu werden erste Ergebnisse aus einer offenen Befragung von Studierenden (N = 70) und einer Online-Studie zum Thema Zukunft vorgestellt.
In der qualitativen Studie wurden die Studierenden zunächst gebeten, schriftlich darzustellen, wie sie sich (a) die Welt im Jahr 2114 vorstellen und wie sie sich (b) wünschen, wie die Welt im Jahr 2114 aussehen soll. Anschließend wurden einige Zukunftsszenarien im Rahmen eines Online-Fragebogens hinsichtlich ihrer Wahrscheinlichkeit und Wünschbarkeit eingeschätzt. Auf diese Weise sollte geprüft werden, inwieweit technische Zukunftsszenarien (z.B. Weltraumtourismus) gegenüber gesellschaftlichen Zukunftsszenarien (z.B. bedingungsloses Grundeinkommen) von den Befragten, in Abhängigkeit von bestimmten Personenmerkmalen, als veränderbar eingestuft werden.
Beide Studien deuten auf ein nur gering ausgeprägtes utopisches Denken in gesellschaftlichen Fragen hin. Auffallend ist, dass in Studie 1 selbst bei der Frage danach, wie die Welt in 100 Jahren aussehen sollte, die von den Befragten zuvor geäußerten und erwarteten Befürchtungen (hochtechnologisierte Welt, Umweltzerstörung, viele Kriege) nicht aufgegriffen oder einer Lösung zugeführt werden. Insgesamt finden sich nur wenige Beschreibungen alternativer Zukünfte, die sich stark vom Status quo unterscheiden (z.B. „Auflösung des Patriarchats“). Gesellschaftliche Änderungen werden auch in Studie 2 als weniger wahrscheinlich eingestuft als technische. Ein solches statische Gesellschaftsbild ist insofern demokratietheoretisch problematisch, da die bestehenden sozialen (Macht-)Verhältnisse möglicherweise einfach deshalb affirmiert werden, weil die Menschen sich keine Alternativen zum Status quo vorstellen können. In diesem Fall werden die tradierten Sichtweisen über die Welt und die Gesellschaft nur pragmatisch übernommen, nicht aber näher reflektiert, legitimiert oder kritisch hinterfragt.
Literatur:
Rosa, H. Beschleunigung. Die Veränderung der Zeitstruktur in der Moderne. Suhrkamp, 2005.
Habermas, J. Die Krise des Wohlfahrtsstaates und die Erschöpfung utopischer Energien. In J. Habermas, Die neue Unübersichtlichkeit (141-163). Suhrkamp, 1985
Dr. Veronika SCHMID, Studium der Soziologie und Anglistik in Frankfurt/Main, ist wissenschaftliche Mitarbeiterin am Institut für Soziologie (Angewandte Soziologie) der Philipps-Universität Marburg. Forschungsschwerpunkte: Autoritarismus, Konfliktforschung, Kritische Theorie, sozialer und kultureller Wandel.
Schmid, V. Die unerträgliche Freiheit der Anderen. Studien zum überwertigen Realismus. Budrich UniPress, 2014.
Dr. Sebastian SCHMID, Studium der Psychologie in Frankfurt/Main, ist akademischer Rat an der Fakultät für Psychologie, Pädagogik und Sportwissenschaft der Universität Regensburg. Forschungsschwerpunkte: Form und Inhalt epistemologischer Überzeugungen, Umgang Studierender mit wissenschaftlicher Originalliteratur, Motivation und Volition aus handlungstheoretischer Perspektive, Wertewandel und Lernmotivation.
Schmid, S., Lutz, A. (2007). Epistemologische Überzeugungen als kohärente Laientheorien. In: Zeitschrift für Pädagogische Psychologie 21/2007, S. 29-40.
Andreas Lösch, Reinhard Heil, Christoph Schneider
Die Erzeugung, Beeinflussung und Instrumentalisierung so¬zio-technischer Leitbilder und Zukunftsvisionen erweist sich zunehmend als ein wichtiges Element in Innovations- und Transformationsprozessen sowie der Governance solcher Prozesse. Vielseitige Praktiken des „Visioneering“ sind aus der zunehmend dominierenden „Kultur der Technowissenschaften“ (Nordmann) nicht wegzudenken. Dies gilt nicht nur für neue und emergierende Technologien (NEST, wie z.B. Nanotechnologie oder synthetische Biologie), sondern ebenso für die Transformationen etablierter soziotechnischer Systeme (z.B. Energiesystem, Big Data). Die Erfassung und Bewertung der „Zukunft machenden“ Prozesswirksamkeiten von Visionen und Leitbildern stellt aus unserer Sicht für die Technikfolgenabschätzung (TA), durch ihre politischen und gesellschaftlichen Beratungsaufträge, eine besonders wichtige Herausforderung dar.
Bisher hat die TA auf die offensichtliche Bedeutung von Visionen in soziotechnischen Innovations- und Transformationsprozessen mit einem „Vision Assessment“ (Grunwald) geantwortet, dass die Realisierbarkeit und Wünschbarkeit von Visionen, ausgehend von Vorstellungs- und Medieninhalten, analysiert und bewertet (z.B. Coenen, Grunwald, Lösch). Zwei Grundprobleme bleiben dabei ungelöst: Zum einen verbleiben Genese, Funktionen und Wirkungen der Leitbilder und Visionen in den Prozessen des „Zukunft Machens“ im Dunkeln. Zum anderen ist unklar, wie sich mit einem prozessbezogenen Vision Assessment Wissen erzeugen lässt, das im Rahmen von TA beratungsrelevant werden kann.
Beide Herausforderungen machen eine Weiterentwicklung des Vision Assessments der TA in theoretischer und praktischer Hinsicht erforderlich. Soziotechnische Leitbilder und Visionen – so die Leitthese des Vortrags – müssen als „sozio-epistemische Praktiken“ in Prozessen begriffen und analysiert werden. Der Fokus auf Leitbilder und Visionen als sozio-epistemische Praktiken macht die Wechselseitigkeit von sozialen Prozessen und Wissensordnungen analytisch zugänglich, indem nicht nur sprachliche Inhalte von Interesse sind, sondern die Weisen ihrer Gestaltung, Nutzung, Zirkulation und Verflechtung mit sozialen Organisationen und Objekten. Leitbilder und Visionen werden so als konstitutive Elemente in Diskursen und Praktiken begreifbar, die Kommunikationsprozesse, Handlungen und sachtechnische Hervorbringungen gleichermaßen ermöglichen und verändern. Damit lässt sich das Verhältnis von Leitbildern und Visionen zu Innovations- und Transformationsprozessen untersuchen und bewerten. Diese Perspektive setzt, ausgehend von vorliegenden Konzepten zum Leitbild- und Vision Assessment, in der TA (z.B. Grunwald, von Gleich) und in den Science & Technology Studies (STS) (z.B. Jasanoff/Kim; Nordmann; van Lente; Brown et al.) die Entwicklung einer mehrdimensionalen und für die Problemstellungen der TA spezifischen Analytik voraus.
Legt man den Fokus auf Leitbilder und Visionen als sozio-epistemische Praktiken des „Zukunft Machens“ in Prozessen, so werden auch verstärkt Praktiken der bewussten Generierung, des strategischen Einsatzes von Leitbildern und Visionen, in den Debatten um Technowissenschaften als „Visioneering“ bezeichnet (McCray), zum empirischen Gegenstand der Analytik. Dies gilt auch für die Beteiligung der TA an Prozessen der Gestaltung von Visionen. Das Vision Assessment der TA selbst ist Teil sozio-epistemischer Praktiken. Zwar geht es dieser Praxis darum, Leitbilder und Visionen zu analysieren und zu bewerten, aber diese Praxis verändert (möglicherweise) selbst die Leitbilder und Visionen und modifiziert ihre Wirkungen im politischen System bzw. der politischen Öffentlichkeit. Entsprechend ist, neben der theoretischen Weiterentwicklung des Vision Assessments für die Analyse und Bewertung der Prozesswirksamkeiten von Leitbildern und Visionen, auch die Entwicklung eines in Bezug auf seine eigenen Kontexte und Wirkungen reflektierten Vision Assessment erforderlich, das sich praktisch in den unterschiedlichen Beratungskontexten der TA einsetzen lässt.
Der Vortrag führt in den Fokus auf Leitbilder und Visionen als sozio-epistemische Praktiken ein. Hierzu werden Konzeption, Forschungsschwerpunkte und erste Einsichten des gleichnamigen Forschungsprojektes am ITAS vorgestellt. Die Bedeutung und Vielschichtigkeit der Perspektive auf Leitbilder und Visionen als sozio-epistemische Praktiken werden an ausgewählten Fallbeispielen (SmartGrid/Energiewende, Big Data, Open Design) demonstriert. Ausblickend wird der Vortrag den Horizont an Herausforderungen skizzieren, die sich angesichts multipler Praktiken des Visioneering sowie der Beratungspraktiken der TA stellen.
ITAS-Projekt: „Leitbilder und Visionen als sozio-epistemische Praktiken – Theoretische Fundierung und praktische Anwendung des Vision Assessments in der Technikfolgenabschätzung“
Website: www.itas.kit.edu/projekte_loes14_luv.php
Andreas LÖSCH, PD Dr. phil. ist Soziologe und wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des Karlsruher Instituts für Technologie und Privatdozent an der Technischen Universität Darmstadt. Seine Schwerpunkte liegen in Wissenschafts- und Techniksoziologie, Vision Assessment sowie wissenssoziologischer Diskursforschung. Am ITAS leitet er das Projekt “Leitbilder und Visionen als sozio-epistemische Praktiken“. Aktuelle Buchpublikation: „Die diskursive Konstruktion einer Technowissenschaft – Wissenssoziologische Analytik am Beispiel der Nanotechnologie“, Baden-Baden (Nomos) 2014.
Kontakt: andreas.loesch@kit.edu
Reinhard HEIL, M.A. ist wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des Karlsruher Instituts für Technologie. Seine Forschungsschwerpunkte sind die Analyse der gesellschaftlichen Folgen neuer und emergierender Wissenschaften und Technologien (u.a. Big Data, Synthetische Biologie, Epigenetik), Vision Assessment und Transhumanismus. Am ITAS koordiniert er das Projekt ABIDA (Assessing Big Data). Publikation: Coenen, Chr.; Gammel, St.; Heil, R.; Woyke, A. (Hrsg.): Die Debatte über "Human Enhancement". Historische, philo-sophische und ethische Aspekte der technologischen Ver-besserung des Menschen. Bielefeld: transcript 2010.
Kontakt: reinhard.heil@kit.edu
Christoph SCHNEIDER, M.A. ist Soziologe und promoviert am Institut für Technikfolgenabschätzung und Systemanalyse, Karlsruhe und am Munich Center for Technology in Society, München über die „Konkreten Utopien“ der Open Source Bewegung. Seine Schwerpunkte sind Wissenssoziologie, insbesondere Zukunftsvisionen und Utopien, Techniksoziologie, soziologische Theorien der Mobilität und der Objekte.
Kontakt: christoph.schneider3@kit.edu
Mahshid Sotoudeh, Leo Capari, Niklas Gudowsky, Ulrike Bechtold
Der demographische Wandel und die damit einhergehende alternde Gesellschaft werden als bedeutende Treiber für technische Innovationen angenommen. Prognosen zufolge werden bis 2030 rund 24 % der österreichischen Bevölkerung älter als 65 Jahre sein (Statistik Austria, 2015). Damit wird auch der Bedarf an Gesundheits- und Pflegedienstleistungen steigen, wohingegen die dafür verfügbare Arbeitskraft aller Voraussicht nach sinken bzw. stagnieren wird. Nach Prognosen des Österreichischen Bundesinstituts für Gesundheitswesen (ÖBIG) werden bis 2025 fast 22.500 mehr Pflegekräfte (Vollzeitäquivalente) benötigt, um die Pflege und Betreuung älterer Menschen zu sichern (Reformarbeitsgruppe Pflege, 2012). Es stellt sich hier die Frage, inwiefern die derzeit hohen Investitionen in die Entwicklung und Implementierung technischer Lösungen diesen Herausforderungen gerecht werden.
Im Rahmen qualitativer vorausschauender TA-Studien werden nicht nur potentielle ökonomische Auswirkungen dieser technischen Ansätze betrachtet, sondern auch die Frage, ob sich diese Innovationen mit den gesellschaftlichen Rahmenbedingungen decken.
Aus TA Sicht sollte:
• das Wissen und die Interessen verschiedener Akteure über die zukünftige Entwicklung transparent dargestellt und
• der Bewertungsrahmen für den Erfolg und Misserfolg von technischen Innovationen aus unterschiedlichen Perspektiven sichtbar gemacht werden.
Dies geschieht in partizipativen Ansätzen. Einerseits entsteht so ein Informationsfluss zwischen verschiedenen Akteuren und andererseits wird der lebensweltliche Kontext unterschiedlicher gesellschaftspolitischer Systeme frühzeitig berücksichtigt. Durch die Beteiligung von BürgerInnen und Stakeholdern können sozial robustere und umfassendere politische Entscheidungen gestaltet werden.
Visionen und Szenarien bieten hier eine Struktur, um die komplexen multi-dimensionalen Abwägungsfaktoren in Modellen für die Gestaltung der Innovationen leichter zu integrieren.
Wir betrachten Visionen und Szenarien als Träger und Matrix für zusammenhängende Entscheidungsfaktoren für die Innovationen. Sie können bei einer tieferen Analyse Relationen zwischen den sozio-ökonomischen Faktoren (wie Zusammenhalt in der Gesellschaft) und potentiellen Handlungsoptionen (wie Entwicklung neuer Tätigkeitsbereiche) qualitativ beleuchtet werden.
In Visionen und Szenarien für das Leben im Alter kristallisieren sich besondere ethische Prinzipien, wie das Recht auf soziale Inklusion, Selbstbestimmung und Privatsphäre, leistbare professionelle Pflege, etc. in einem neuen Verständnis für das gesellschaftliche Bild der Zukunft heraus. Gleichzeitig wird der Wunsch nach neuen Wohnmodellen, Bildungskonzepten und Tätigkeitsformen geäußert.
Im Rahmen dieses Beitrags werden anhand von zwei am ITA durchgeführte Studien im Themenbereich Altern und Technologie die zusammenhängenden Innovationsfaktoren in parallel koexistierenden heterogenen sozio-technischen Systeme in Gesundheits-, Pflege-, Bildungs- und Beschäftigungsbereichen, Wohnbaubereich und Stadtplanung beleuchtet.
Anschließend werden politische Handlungsoptionen für eine langfristige Planung aus dieser Analyse abgeleitet.
Literatur:
Statistik Austria, 2015 : statistik.at/web_de/statistiken/bevoelkerung/index.html (Zugriff: 10.02.2015).
Reformarbeitsgruppe Pflege zur Verbesserung des Pflegeangebotes, Attraktivierung der Pflegeberufe, Optimierungen und Finanzierung in Österreich, Wien Dez. 2012: sozialministerium.at/cms/site/attachments/9/7/0/CH2081/CMS1356078635988/empfehlungen_der_reformarbeitsgruppe_pflege.pdf (10.02.2015).
Mahshid SOTOUDEH ist senior researcher am ITA und beschäftigt sich mit Fragen zu Technologie und Nachhaltigkeit. Dazu gehören u.a. die Bereiche technische Ausbildung, Autonomes Leben im Alter, Smart Cities, parlamentarische TA, umweltbewusster und sozial-verträglicher Konsum, partizipative Methoden und vorausschauende Studien (Foresight).
Leo CAPARI ist Humanökologe und seit 2013 als Junior Scientist im Bereich Technologie und Nachhaltigkeit am ITA tätig. In seiner bisherigen Tätigkeit hat an den Themen Ambient Assisted Living (AAL), Umweltwissenschaften / Sustainability Sciences und Smart Cities gearbeitet.
Niklas GUDOWSKY forscht seit 2010 am ITA zu Foresight und partizipativen Methoden im Bereich Technologie und Nachhaltigkeit. Außerdem betreut er die Publikationsreihe ITA-Dossiers, welche aktuelle Forschungsergebnisse zusammenfasst und Handlungsoptionen für Politik und Gesellschaft aufzeigt.
Ulrike BECHTOLD ist promovierte Humanökologin und seit 2007 wissenschaftliche Mitarbeiterin des ITA in den Bereichen Technologie und Nachhaltigkeit. Schwerpunkte ihrer Arbeit sind umgebungsgestütztes Altern, Klimatechnologien und Partizipation.
Michael Decker
Constructive Technology Assessment (cTA) zielt darauf ab, den technischen Entwicklungsprozess reflexiv zu begleiten (Schot und Rip 1997). Die Entscheidung, welche Art Technik entwickelt werden soll, ist im Prinzip gefallen (Technology Push). Zugleich werden aber frühzeitig mögliche rechtliche, ökonomische, soziale und ethische Aspekte analysiert, wobei die Ergebnisse dieser Analyse in die technische Präzisierung und Detailentwicklung einfließen. Ergänzt wird diese interdisziplinäre Analyse um eine ebenfalls möglichst frühzeitige Nutzereinbindung, die sowohl in einem umfassenderen Sinne, also bezüglich der gesellschaftlichen Einbettung der Technologie, als auch sehr konkret, d.h. zum Beispiel das Technikdesign aus Nutzerperspektive betreffend, ausgelegt wird.
In einer bedarfsorientierten Vorgehensweise wird die Nutzereinbindung an den Anfang gestellt. Es ist keine Technologie festgelegt, sondern es wird in einer Bedarfsanalyse erst erhoben, welche Art von Technologie am besten geeignet ist, um eine gesellschaftliche Bedarfslage gut befriedigen zu können (Demand Pull). Der gesellschaftliche Wandel und als ein Aspekt davon die steigende Anzahl von Menschen mit Demenz kann als eine solche Bedarfslage angesehen werden, in der noch nicht absehbar ist, welche Art von technischer Assistenz tatsächlich hilfreich im Pflegealltag sein könnte.
Damit wird die „Last“ des Imaginierens von Technikzukünften auf die Akteure des Pflegearrangements, das heißt die Menschen mit Demenz, deren Angehörige, die professionell und auch die ehrenamtlich Pflegenden, verschoben, denn deren – je auch unterschiedlichen – Bedarfslagen müssen ja idealerweise durch eine technische Lösung erfüllt werden (Krings et al. 2014).
In dem vom deutschen Bundesministerium für Bildung und Forschung (BMBF) geförderten „Vorprojekt“ Movemenz wird dieser Pfad verfolgt. Die empirische Analyse der Bedarfslage, methodisch umgesetzt durch begleitende Beobachtung sowie Einzel‐ und Gruppeninterviews mit allen Akteuren im Pflegearrangement von Menschen mit Demenz, wird im Verlauf des Projekts mit Technikentwicklerinnen und – entwicklern diskutiert, um somit eine Art technisches Pflichtenheft zu entwickeln, von dem begründet davon ausgegangen werden kann, dass diese Technik zumindest nicht an einem aktuell bestehenden Bedarf „vorbei“ entwickelt würde (Weinberger et al. 2014). Ein solches technisches Pflichtenheft könnte dann in einem anschließend durchgeführten Technikentwicklungsprojekt erfüllt werden, wobei dieser Prozess von einer cTA weiter begleitet werden sollte.
In diesem Beitrag wird der Fokus auf das Anregen des Imaginierens der Akteure im Pflegearrangement gelegt, die sich entsprechend vorstellen müssen, wie ein technisches Artefakt ihren Pflegealltag verbessern könnte. Die aus diesem Projekt gewonnenen Erkenntnisse und die Möglichkeiten und Grenzen dieses Verfahrens werden diskutiert und verallgemeinernd auf partizipatives Imaginieren übertragen. Dabei wird insbesondere darauf eingegangen, dass die unterschiedlichen Bedarfe je auch Zumutungen für die anderen Akteure mit sich bringen können. Ebenso wird ausgeführt, dass Bedarfslagen ja zunächst nicht technisch gerahmt sind, woraus wiederum methodische Herausforderungen für den TA‐Prozess resultieren. Im zweiten Teil wird aus der Perspektive der TA reflektiert, inwieweit eine solche Bedarfsorientierung innovationsunterstützend sein kann und auch die förderungspolitische Entwicklung hin zu dem Instrument des „Vorprojekts“ nachgezeichnet.
Literatur:
Krings, B.‐J., Böhle, K.; Decker, M.; Nierling, L.; Schneider, C. (2014) Serviceroboter in Pflegearrangements. In: Decker, M.; Fleischer, T.; Schippl, J.; Weinberger, N. (Hrsg.): Zukünftige Themen der Innovations‐ und Technikanalyse: Lessons learned und ausgewählte Ergebnisse. Karlsruhe: KIT Scientific Publishing, S. 63‐121.
Schot, J.; Rip, A. (1997) The Past and Future of Constructive Technology Assessment. Technological Forecasting and Social Change 54, 251‐268.
Weinberger, N.; Decker, M.; Krings, B.‐J. (2014) Pflege von Menschen mit Demenz ‐ Bedarfsorientierte Technikgestaltung. In: Schultz, T.; Putze, F.; Kruse, A. (Hrsg.): Technische Unterstützung für Menschen mit Demenz. Karlsruhe: KIT Scientific Publishing, S. 61‐74.
Thomas Völker
„The importance of knowledge-making about the future is difficult to overestimate“ (Nelson, Geltzer, & Hilgartner)
Seit mittlerweile zwei Jahrzehnten gibt es in der Wissenschaftsforschung eine Debatte über sich verändernde Formen der Wissensproduktion. Mit Begriffen wie ‘Modus 2’- (Gibbons et al., 1994; Nowotny, Scott, & Gibbons, 2001) oder ‘Post-normaler’-Wissenschaft (Funtowicz & Ravetz, 1992) werden Veränderungen in der Art und Weise diskutiert, in der Wissen produziert und für die Gesellschaft nutzbar gemacht wird. Das Kernargument dabei ist, dass wissenschaftliches Wissen allein nicht in der Lage sei, Lösungen für komplexe kontemporäre Probleme anzubieten. Zusätzlich zu sog. ‚traditionellen’ Formen seien partizipative, respektive transdisziplinäre Methoden der Wissenserzeugung notwendig. In zunehmendem Maße nehmen auch PolitikerInnen und Forschungs-Programm-ManagerInnen diese akademischen Diagnosen und Debatten auf. In den letzten Jahren wurde dabei das Augenmerk verstärkt auf Fragen der Verantwortung gelegt. Dies geschieht unter dem Schlagwort ‘responsible research and innovation’ (RRI) (Owen, Macnaghten, & Stilgoe, 2012) und auch in der Debatte um die Rolle von ‚care-Logiken’ in der Wissenschaft. (Felt et al., 2013) Die mit diesen Begrifflichkeiten diskutierten und angestrebten Änderungen in der Produktion und Zirkulation von (Zukunfts-)Wissen sollen dazu beitragen, die ‚grand challenges of our time’ (Lund Declaration) zu meistern.
Spannend an diesen Debatten ist die zunehmende Fokussierung auf ‚Zukunft’ als imaginative Ressource und epistemisches Objekt anhand dessen Beziehungen zwischen Wissenschaft, Gesellschaft und Natur verhandelt werden. Begriffe wie ‚anticipatory regimes’ (Adams, Murphy, & Clarke, 2009; Tutton, 2011) oder ‚culture of anticipation’ (Panchasi, 2009) lenken die Aufmerksamkeit auf den zunehmenden normativen Drang in kontemporären Gesellschaften, kollektives Handeln auf eine ungewisse Zukunft auszurichten. Es ist kaum mehr möglich, sich nicht mit der Zukunft zu beschäftigen. Eine Konsequenz aus diesem Fokus auf die Zukunft ist auch ein gestiegenes Bedürfnis nach Wissen über mögliche Zukünfte. Die Produktion von kollektiv geteilten Zukunftsvorstellungen ist so immer eng an die Produktion und Zirkulation von Zukunftswissen gekoppelt. Es überrascht daher kaum, dass viele Forschungsprogramme neben der Konzentration auf partizipative oder transdisziplinäre Formen der Wissensproduktion auch Wissen über die Zukunft erzeugen wollen.
Vor diesem Hintergrund stellt sich die Frage, wie Verantwortung für Wissen und Handeln in partizipativen Forschungssettings verteilt wird, wem Entscheidungsmacht eingeräumt wird und wessen Zukünfte dabei überhaupt zur Debatte stehen. In meinem Vortrag möchte ich den Fokus auf die Praxen der partizipativen Produktion und Zirkulation von Zukünften in transdisziplinärer Nachhaltigkeitsforschung lenken. Dabei geht es mir vor allem darum, zu fragen, wie Partizipation praktiziert wird und wie sich die angestrebte Neu- oder Umverteilung von Verantwortung in der Produktion und Zirkulation von Zukunftswissen darstellt:
• Wie wird Zukunftswissen an der Schnittstelle zwischen Wissenschaft, (Umwelt-)Politik und Öffentlichkeiten produziert?
• Wie wird Verantwortung für das erzeugte Wissen in derartigen Projekten auf sozialer, epistemischer und zeitlicher Ebene verteilt?
• Welche AkteurInnen partizipieren in der Produktion von Zukünften und wer ist für deren langfristige Aktualisierung verantwortlich?
• Welche Zukunftsvorstellungen werden dabei produziert/stabilisiert und welche latenten Zukünfte sind in diesen Praxen angelegt?
Zur Beantwortung dieser Fragen analysiere ich Daten, die im Rahmen einer Fallstudie des österreichischen Forschungsförderprogramms proVISION und der darin geförderten Forschungsprojekte [http://wissenschaft.bmwfw.gv.at/bmwfw/forschung/national/forschungseinrichtungen/provision/, 24.2.2015] erhoben wurden. Ziel des Vortrags ist es, zu einem empirisch fundierten Verständnis der Produktion und Verwendung von Zukunftswissen in transdisziplinärer Nachhaltigkeitsforschung beizutragen.
Literatur:
Adams, V., Murphy, M., & Clarke, A. E. (2009). Anticipation: Technoscience, Life, Affect, Temporality. Subjectivity(28), 246-265.
Felt, U., Barben, D., Irwin, A., Joly, P.-B., Rip, A., Stirling, A., & Stöckelová, T. (2013). Science in Society: Caring for Our Futures in Turbulent Times.
Funtowicz, S., & Ravetz, J. (1992). Three Types of Risk Assessment and the Emergence of Post-Normal Science. Westport: Praeger.
Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Scott, P., & Trow, M. (1994). New Production of Knowledge: Dynamics of Science and Research in Contemporary Societies. London, Thousand Oaks, New Delhi: SAGE Publications.
Nelson, N., Geltzer, A., & Hilgartner, S. (2008). Introduction: The Anticipatory State: Making Policy-Relevant Knowledge About the Future. Science and Public Policy, 35(8), 546-550.
Nowotny, H., Scott, P., & Gibbons, M. (2001). Re-thinking Science. Knowledge and the Public in an Age of Uncertainty Cambridge: Polity Press.
Owen, R., Macnaghten, P., & Stilgoe, J. (2012). Responsible Research and Innovation: From Science in Society to Science for Society, with Society. Science and Public Policy, 39(6), 751-760.
Panchasi, R. (2009). Future tense: The culture of anticipation in France between the wars: Cornell University Press.
Tutton, R. (2011). Promising Pessimism: Reading the Futures to be Avoided in Biotech. Social Studies of Science(Published Online February, 21st 2011).
Thomas VÖLKER hat in Wien Soziologie studiert und sich anschließend auf den Bereich Wissenschafts- und Technikforschung spezialisiert. In seiner Dissertation beschäftigte er sich mit transdisziplinärer Nachhaltigkeitsforschung und ging dabei der Frage nach, wie in heterogenen Kollaborationen zwischen WissenschaftlerInnen und sogenannten außer-wissenschaftlichen AkteurInnen verschiedene Formen von Zukunftswissen produziert und zirkuliert werden.
Frank Heidmann, Anouk Meissner
Zukünftige technische Entwicklungen und damit verbundene Lebensformen - sei es als Utopien oder Dystopien - werden seit jeher medial in Form von Illustrationen und Bildern, Filmen oder literarischen Erzeugnissen dokumentiert und kommuniziert. Mit der allgegenwärtigen Digitalisierung werden dabei zunehmend User Interfaces als Mensch-Technik-Schnittstellen bestimmende Elemente technischer Zukünfte. Als komplexe soziotechnische Umgebungen begleiten sie uns gegenwärtig häufig noch in Form objekt-bezogener physischer Interfaces wie Smartphones und Tablet-PCs, zukünftig ubiquitär in sämtlichen Bedarfsfeldern der Daseinsvorsorge. Typische Anwendungsszenarien liegen in den Bereichen Mobilität und Verkehr (z.B. autonomes Fahren), Robotik (z.B. humanoide Service- und Pflege-roboter), Artificial Intelligence (z.B. komplexe Analyse- und Steuerungsaufgaben, Big Data Analytics), Ubiquitous Computing (z.B. Augmented Reality, Smart Homes etc.), Industrie 4.0 (vernetzte Produktion) oder Human Enhancement (z.B. Neuro-Prothesen oder Gehirn-Computer Schnittstellen).
Neben der produkt- und serviceorientierten Entwicklung neuer User Interfaces zur Problemlösung, findet Design dabei immer häufiger als Methode der Problemstellung Anwendung. Methoden und Perspektiven aus dem Design sollen helfen, neu- oder andersartige Problem- bzw. Fragestellungen, Strategien und Entscheidungsprozesse im Umgang mit komplexen gesellschaftlichen Problemen zu entwickeln. Design wird als zukunftsorientiertes, problemrelevantes Handeln definiert und folglich für die Gestaltung von Zukünften und das Lösen von Problemen als relevant erachtet.
Besonders deutlich wird dieser Anspruch in jüngeren Designansätzen wie Critical Design, Design Fiction, Speculative Design, Design for Debate oder Design Futurescaping, die sich alle mit der Gestaltung von alternativen Zukunftsszenarien und Gegenwartsentwürfen auseinandersetzen. Design wird als ein Mittel des hypothetischen und spekulativen Fragens benutzt, um auf diese Weise herauszufinden, wie Dinge - etwa Technologie- oder Gesellschaftsentwicklung, Konsumkultur etc. - auf andere Weise existieren und funktionieren könnten. Statt reale, marktorientierte Produkte herzustellen, geht es beim Critical Design vielmehr darum, hypothetische Möglichkeiten, utopische Konzepte und dystopische Gegenprodukte zu entwerfen.
In dem Beitrag werden die Methoden und aktuelle Beispiele kritischen und spekulativen Designs für zukünftige Mensch-Technik-Schnittstellen und die damit verbundenen Menschenbilder und Gesellschaftsformen vorgestellt und diskutiert. Die Beispiele thematisieren u.a. den Schutz der Privat-sphäre in den prognostizierten Sensornetzwerken zukünftiger Smart Cities, die Folgen der Quantified Self Bewegung, z.B. in Form von Versicherungs-Apps, die Wohlverhalten registrieren und mit Prämien honorieren, oder intelligenter kontextsensitiver Linsen als Weiterentwicklung von Google Glasses und ähnlichen Augmented-Reality-Devices.
Ziel des Beitrags ist es, das Potential dieser Designmethoden für die Sichtbarmachung und Diskussion von Zukünften der Mensch-Technik-Kooperation herauszustellen. Ihre reflektierte und differenzierte, multiperspektivische Sichtweise kann, so die These, einen wichtigen Beitrag zur Technologiefolgenabschätzung und Zukunftsforschung leisten. Sie ermöglichen auf der einen Seite technowissenschaftliche Hybris sowie potentielle Technik- und Akzeptanzrisiken neuer Formen der Mensch-Technik-Kooperation pointiert sichtbar zu machen und bieten auf der anderen Seite gleichzeitig konkrete Handlungs- und Gestaltungsvorschläge für alternative Zukünfte. Sie kreieren neue Räume für Diskussionen über alternative Lebensformen und ermutigen - insbesondere Nicht-ExpertInnen - ihre Vorstellungskraft frei zu entfalten. Sie unterstützen auf diese Weise partizipative Prozesse und bilden den Ausgangspunkt für Co-Design- oder Co-Creation-Ansätze, die sich durch ein gleichberechtigtes Miteinander von AnwenderInnen und GestalterInnen bzw. ExpertenInnen auszeichnen. »Designspekulationen können als Katalysator fungieren, um unsere Beziehung zur Realität kollektiv neu zu definieren.« (Dunne/Raby 2013)
Dunne, Anthony, Raby, Fiona (2013): Speculative Everything: Design, Fiction, and Social Dreaming. Cambridge MA: MIT Press.
Frank HEIDMANN, Prof. Dr., ist Professor für »Design of Software Interfaces« und Leiter des »Interaction Design Lab« an der Fachhochschule Potsdam. Seine Interessensgebiete umfassen die Gestaltung und Evaluation von Mensch-Technik-Schnittstellen, die Visualisierung raumbezogener Daten (Geovisualisierung), Smart Cities und Green IT/Sustainable Design.
Anouk MEISSNER, M.A., ist wissenschaftliche Mitarbeiterin am Fachbereich Design der Fachhochschule Potsdam. Sie ist mit der strategischen Weiterentwicklung der Designstudiengänge (B.A./M.A.) befasst und betreut das Masterprogramm. Ihre Forschungsinteressen liegen in der Methodenentwicklung und dem Methodeneinsatz in der Designforschung.
Carolin Thiem
Laut einer Bevölkerungsumfrage des Instituts forsa für das Wissenschaftsjahr 2014 - die Digitale Gesellschaft, steht die deutsche Bevölkerung politischer Beteiligung im Internet aufgeschlossen gegenüber. 45 Prozent ziehen Onlinewahlen in Betracht, mehr als jeder Zweite sieht darin eine Möglichkeit, die Wahlbeteiligung entscheidend zu erhöhen, um an dieser Stelle nur einige Ergebnisse zu zitieren. Neben Onlinewahlen existieren bereits zahlreiche Formate, die auf technosozialen Strukturen basieren und Bürger in politische Entscheidungsprozesse inkludieren sollen. Der Blick auf ebendiese Strukturen ermöglicht es, webbasierte Partizipationsformate in einem neuen Licht zu sehen und bestehende Perspektiven auf die Thematik Partizipation in Frage zu stellen.
Onlinewahlen scheinen in Deutschland noch Zukunftsmusik zu sein, aber es gibt bereits heute zahlreiche neue Partizipationsformate, die mit Hilfe von Web 2.0 Technologien neu konfiguriert und erweitert wurden. Phänomene wie Open Government, Open Innovation und ePartizipation haben den Weg in den Diskurs gefunden und ersetzen bereits bestehende Formate. Nicht nur hinsichtlich neuer potenzieller Zielgruppen, sondern auch bezüglich einer signifikanten Kosteneffizienz, hat ePartizipation viele Vorteile aufzuweisen. Dennoch gilt auch für diese neuen Partizipationsformate: Der Bürger/Die Bürgerin benötigt Kommunikationsbereitschaft. Also das Vermögen (z.B. Ausdrucksfähigkeit) sowie die Motivation (z.B. politisches Interesse), sich an der Öffentlichkeit zu beteiligen (vgl. Gerhards und Neidhardt 1990: 35). Daran hat sich bis heute nichts geändert. Im Gegenteil es ist noch etwas hinzugekommen, das Vermögen mit neuen Medien umzugehen und diesen in der Anwendung zu vertrauen. So beleuchten die oben genannten Zahlen nur eine Seite der Medaille. Denn ePartizipation ist bisher, wie von Experten prophezeit, weit unter den Erwartungen zurückgeblieben (vgl. dazu den Überblick bei Price 2012, 125ff.). Sie scheint nicht der Schlüssel zu mehr Beteiligung zu sein, sondern verändert Partizipationsformate lediglich in ihrer Strategie und Ausrichtung.
Wie sieht nun Partizipation in der Zukunft aus bzw. kann man Partizipation in den nächsten Jahren noch als Begriff verwenden? Es scheint, dass der ursprüngliche Begriff, der die Einbeziehung von Individuen und Organisationen beinhaltet, in den Hintergrund und eine neue Definition an diese Stelle rückt. Können wir der Instrumentalisierung der Öffentlichkeitsbeteiligung entgehen und Partizipation neu erfinden? Dieser Frage möchte der Beitrag nachgehen und verschiedene Partizipations-Inklusionsformate analysieren sowie kritisch reflektieren.
Fraglich ist dabei, ob Partizipationsformate ohne Web 2.0 Grundlage in einer technisierten und globalisierten Gesellschaft auf Interesse stoßen und die nötige Reichweite und Flexibilität zur Bearbeitung der verschiedenen Problem- und Fragestellung ermöglichen. Gerade in Zeiten von Smartphones und grenzenloser Mobilität scheint die Rückkehr zu Face-Face-Beteiligung nicht zukunftsfähig. Diesem Anschein nach ist es sinnvoll, sich mit den neuen Partizipationsformaten auseinanderzusetzen, um zu sehen, an welcher Stelle die Partizipation der ursprünglichen Definition entspricht und an welcher Stelle Technologien welche Funktion einnehmen können. Denn das Aufkommen dieser Partizipationsformate wäre ohne das konstitutive Element von technischen und speziell medientechnischen Innovationen nie möglich gewesen. Die technologische Bedingung von ePartizipation wird in der Forschung selten reflektiert und das obwohl sie eine interessante neue Perspektive auf Partizipationsformate darstellt. Der Beitrag möchte aufzeigen, dass Technologien nicht zuletzt einen Grundpfeiler für Beteiligung in der Zukunft bedeuten. Der Vortrag adressiert die Bedeutsamkeit technosozialer Strukturen um aufzuzeigen dass sowohl die These von BürgerInnen-Emanzipation als auch die der Instrumentalisierung von BürgerInnenschaft durch Partizipationsformate zu unterkomplex ist um diesem vielschichtigen Phänomen gerecht zu werden.
Gerhards, Jürgen und Neidhardt, Friedhelm (1990). Strukturen und Funktionen moderner Öffentlichkeit. Fragestellungen und Ansätze [Structures and Functions of Modern Public Sphere]. Discussion Paper, FS III 90-101. Wissenschaftszentrum Berlin.
Price, V. (2012). Playing Politics – The Experience of E-Partizipation. In: Coleman, S. & Shane P.M. (Hrsg.). Connecting Democracy – Online Consultation and the Flow of Political Communication. Cambridge: MIT Press, S. 125-148.
Umfrage: E-Partizipation: Chance für mehr Mitbestimmung und höhere Wahlbeteiligung. in Aktuelles Wissenschaftsjahr 2014 – Die digitale Gesellschaft. www.digital-ist.de/aktuelles/umfrage-e-partizipation.html (letzter Zugriff: 28.02.2015).
Carolin THIEM (Junior Researcher TU Berlin): Studium der Soziologie technikwissenschaftliche Richtung mit Nebenfach Arbeitswissenschaften an der Technischen Universität Berlin, Qualitative Marktforschungstätigkeit bei HYVE AG (München) und Service Innovation Labs GmbH (Berlin), Seit November 2014 Doktorandin am Friedrich Schiedel-Stiftungslehrstuhl für Wissenschaftssoziologie an der Technischen Universität München. Promotionsprojekt zu Digitale Innovationswettbewerbe - Technosoziale Laienpartizipation in der Konstruktion, Anwendung und in der öffentlichen Auseinandersetzung.
Torsten Fleischer, Silke Zimmer-Merkle
Eine wichtige Aufgabe von Technikfolgenabschätzung (TA) ist es, politische Entscheidungsträger und die Gesellschaft als Ganzes über mögliche intendierte – und insbesondere auch nicht intendierte – Folgen von technischem Wandel und den damit verbundenen gesellschaftlichen Veränderungen zu informieren, Debatten darüber anzustoßen und so zu einer reflexiven und antizipatorischen Governance soziotechnischer Veränderungsprozesse beizutragen. Auf welche Wissensbestände dabei zurückgegriffen wird, ist bereits seit längerem Gegenstand methodologischer Diskussion. Vergleichsweise wenig Aufmerksamkeit gefunden hat bisher die Reflexion über die Verwendung von historischen Erkenntnissen in TA-Forschung und TA-Praktiken.
Das mag zunächst überraschend klingen, ist doch TA eine primär zukunftsorientierte Aktivität. Es kann wohl als unbestreitbar gelten, dass das in der TA erzeugte Zukunftswissen ganz erheblich darauf aufbaut, Erfahrungen mit in der Vergangenheit stattgefunden habenden Entwicklungen zu analysieren und zu abstrahieren, Ähnlichkeiten mit gegenwärtig sich vollziehenden Prozessen festzustellen und daraus Aussagen über mögliche Zukünfte abzuleiten. In dieser Praxis können wenigstens drei Fragestellungen einer vertiefenden Prüfung unterzogen werden: Welche Ergebnisse welcher historischen Forschung geraten in den Aufmerksamkeitsbereich von TA-Praktikern und wie werden sie einer Gültigkeitsprüfung unterzogen? Auf welchen Aspekten gründet die Ähnlichkeitsbehauptung, d.h. die Annahme einer zumindest strukturellen Übertragbarkeit vergangener Entwicklungen auf die Zukunft? Anhand welcher Argumente werden Möglichkeiten von Zukünften durch TA-Praktiker attribuiert?
Dieser Vortrag will sich vor allem der erstgenannten Frage widmen. Er geht von der Vermutung aus, dass sich TA in diesem Zusammenhang gegenwärtig vor allem auf Ergebnisse der sozialwissenschaftlichen Technikforschung und der betriebswirtschaftlichen Innovationsforschung stützt. Im Vergleich dazu sind Ergebnisse der technikgeschichtswissenschaftlichen Forschung eher unterrepräsentiert. Er vertritt die These, dass hierfür zumindest zwei Erklärungsansätze zum Tragen kommen können. Zum einen bieten die beiden erstgenannten Zugänge zu historischem Wissen in der Regel zugleich auch Hinweise auf gesellschaftliche Kontextualisierung und versprechen – zumindest implizit – eine Übertragbarkeit auf als vergleichbar angenommene Situationen. Sie betten ihre Erkenntnisse nachvollziehbar in Vorstellungen über Funktionsweisen von Gesellschaften oder jedenfalls eines ihrer Teilsysteme ein. Technikgeschichtliche Literatur hingegen ist hierzu in der Regel wesentlich zurückhaltender. Dies macht ihre Rezeption zum Zwecke der Verwendung im TA-Zusammenhang weniger attraktiv und lässt sie unter Umständen sogar vollständig aus dem Blickfeld von Praktikern verschwinden. Denn diese, so der zweite Ansatz, bedienen sich historischer Erkenntnisse eher utilitaristisch im Sinne einer funktionalen Nutzbarkeit in TA-Kontexten, und zugleich eklektisch im Hinblick auf die Auswahl von Quellen. Letzteres mag zum einen dem intuitiven Umgang mit der Historizität des behandelten Themas geschuldet sein – wobei sich fragen lässt, ob diese dem TA-Forschenden tatsächlich immer bewusst ist oder vielmehr zufällig und nicht in jedem Falle wahrgenommen wird – zum anderen der Heterogenität der technikhistorischen Publikationslandschaft, die in ihrer Unübersichtlichkeit ohne eine gewisse historische Expertise schwierig zu erschließen ist.
Der Beitrag unternimmt einen Versuch der Beschreibung des Verhältnisses der TA zu Vergangenem, ruft zu einem reflektierterem Umgang mit unterschiedlichen Quellen „historischen Wissens“ auf und versucht sich an Vorschlägen für eine veränderte Beziehung von TA zur Technikgeschichte.
Torsten FLEISCHER ist Leiter des Forschungsbereichs „Innovationsprozesse und Technikfolgen“ am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Dort forscht er zu Wechselwirkungen zwischen technischem und sozialem Wandel und hier vor allem zur Governance neuer Techniken in den Bereichen neue Materialien, Verkehr und Energie. Darüber hinaus arbeitet er zu Methoden und Verfahren der Technikfolgenabschätzung, zur Partizipation in Innovationsprozessen und zur Wissenschaftskommunikation.
Silke ZIMMER-MERKLE studierte in Karlsruhe Europäische Kultur und Ideengeschichte mit dem Schwerpunkt auf Technikgeschichte. Ihre Forschungsschwerpunkte liegen in der Kultur- und Mentalitätsgeschichte, sowie auf Theorie und Methoden der Geschichtswissenschaft. Sie promoviert am ITAS über die mögliche Verbindung von Geschichtswissenschaft und TA am Fallbeispiel automobiler Assistenzsysteme.
Johannes Schmidl
Utopische Gedankenexperimente
Utopien sind rationale gesellschaftspolitische Gedankenexperimente, die oft an konkreten Problemen und Schwachstellen der Wirklichkeit ansetzen und dazu diametral entgegengesetzte (die eigentliche Utopie) oder radikal negativ übersteigerte (Dystopie) Bilder einer alternativen Gesellschaft entwerfen. Um die Details des Transfers kümmern sie sich meistens nicht. 500 Jahre europäischer Utopietradition (1516 erscheint Thomas Morus´ namensgebende „Utopia“) haben, neben anderem, zahlreiche Vorschläge zur Lösung des Problems knapper Ressourcen hervorgebracht, die sich in zwei Familienähnlichkeiten teilen lassen: einen Strang, der auf Thomas Morus selbst zurückgeht, und eine Linie in der Tradition von Francis Bacons „Nova Atlantis“ (1627).
Utopien und das Problem knapper Ressourcen
Die Anzahl utopischer Gesellschaftsmodelle, die seit dem neuzeitlichen Startschuss durch Thomas Morus beschrieben worden sind, geht in die hunderte. Löst Thomas Morus den Ressourcenkonflikt durch radikale normative Gleichheit, die allen Bewohnern der Insel Utopia das Lebensnotwendige – aber nicht mehr! – kostenfrei zur Verfügung stellt, so setzt Francis Bacon gut ein Jahrhundert später bei einem umfassenden instrumentellen Natur- und Technikverständnis an, das nutzbare Ressourcen im Überfluss verspricht. Elemente sowohl des Morusschen als auch des Baconschen Programms finden sich in zahlreichen Varianten bis in die Gegenwart.
Obwohl Morus´ Utopia aus heutiger Blickrichtung als totalitärer Staat erscheint, ist Utopia doch auch ein bemerkenswert effizientes Staatswesen – und es löst den Rebound Effekt, 350 Jahre bevor dieser erstmals als Problem formuliert worden ist.
Der Baconschen Strang, der das Geschenk des Überflusses verspricht, hat ebenso visionäre Denker hervorgebracht wie andererseits auch Entwicklungen inspiriert, die man inzwischen als Irrwege bezeichnen muss. Johann Adolph Etzler, ein deutsch-amerikanischer Abenteurer in der Tradition der Utopischen Sozialisten (namentlich von Robert Owen), entwirft in den 1830er Jahren das Bild einer Überflussgesellschaft, die auf jene Energieträger aufbaut, die man heute die „erneuerbaren“ nennt. Obwohl er den Energiebegriff noch gar nicht kennt, weiß er, dass Wind und Sonne unregelmäßig auftreten und er deshalb einen technischen Ausgleich schaffen muss. In seiner Utopie „Das Paradies, für jedermann erreichbar,…“ schlägt er deshalb einen Pumpspeicher vor, 60 Jahre bevor dieser erstmals realisiert worden ist. In der Tradition Francis Bacons stehen auch die Pioniere der Kernenergienutzung, die sich am unermesslichen Potenzial der berühmten Einsteinschen Gleichung begeistern. Der von ihnen in den 1950er-Jahren ernsthaft artikulierte Anspruch, elektrische Energie aus Kernkraft werde bald „too cheap to meter“ sein, hat über Jahrzehnte realpolitische Folgen gezeitigt und Generationen von NaturwissenschafterInnen von alternativen Gedanken abgebracht und auf die Kernenergie verpflichtet.
Aktualität utopischen Denkens
In diesem Beitrag wird argumentiert und mit Beispielen untermauert, dass utopisches Denken uns auch heute aus zumindest zwei, letztlich entgegengesetzten Gründen beschäftigen sollte:
• Einmal, weil sich sehr viel an ursprünglich utopischen Entwürfen, Elementen und Denkweisen beinahe unbemerkt in der Alltagswelt der westlichen Industriestaaten einquartiert, oder besser, diese erst ermöglicht hat. Mit allen realisierten Versprechen sind aber auch einige der dystopischen Schreckensbilder, die Utopisten spätestens seit Beginn des 20. Jahrhunderts ebenfalls entworfen haben, unserem Alltag bedenklich nahe gerückt. „Die weltweite technologische Fortschrittsdynamik birgt als solche einen impliziten Utopismus in sich, der Tendenz, wenn nicht dem Programm nach. … Dies nötigt zu einer eingehenden Kritik des utopischen Ideals.“, warnt etwa Hans Jonas.
• Zum anderen steht die Menschheit heute vor nie gekannten Herausforderungen und Aufgaben, deren Lösung alle ihre Kräfte in Anspruch nehmen wird. Dabei wird es notwendig sein, größere gesellschaftspolitische Entwürfe und Veränderungen – und utopisches Denken hat solche immer vorgetragen – zu erwägen, zu planen und letztlich auch zuzulassen.
Der Verzicht auf utopisches Denken dogmatisiert den herrschenden Zustand. Utopien sind gefährlicher gedanklicher Boden und wahrscheinlich dennoch unverzichtbar. Sie können Bilder von gelingender Zukunft entwerfen und dabei zugleich deren Gewaltpotenzial übersehen. In der jahrhundertealten Geistestradition des europäischen utopischen Denkens ist aber zu viel an brauchbaren, interessanten, gefährlichen, jedenfalls jedoch bedenkenswerten Entwürfen für Lösungen unserer Probleme enthalten, als dass wir leichtfertig darauf verzichten sollten.
Literatur:
Etzler, John Adolphus (1844): Das Paradies, für Jedermann erreichbar, lediglich durch Kräfte der Natur und der einfachsten Maschinen. Allen Einsichtsvollen Männern gewidmet. Nach der zweiten englischen Ausgabe, Heerbrand und Thämel, Ulm
Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main
Saage, Richard (1999): Innenansichten Utopias. Wirkungen, Entwürfe und Chancen des utopischen Denkens. Berlin, Duncker & Humblot GmbH
Schmidl, Johannes (2014): Energie und Utopie. Wien, Sonderzahl
Smil, Vaclav, (2010): Energy Transitions. History, Requirements, Prospects. Santa Barbara, California; Denver, Colorado; Oxford, England. Praeger
Johannes SCHMIDL: Geb. 1963 in Lienz, Studium Technische Physik und Philosophie (Graz), Technischer Umweltschutz (Wien).1993 bis 1995 für die Österreichische Entwicklungszusammenarbeit in Nepal. Seit ca. 25 Jahren mit verschiedenen Aspekten des Themas „Energie“ befasst: wissenschaftlich, praktisch, beratend
Forschungsschwerpunkt: praktische Aspekte der Energiewende, Schwerpunkt Bioenergie
Stefan C. Aykut
Since the beginning of the years 2000, Germany has engaged in a radical energy turnaround (Energiewende) that aims at simultaneously abandoning nuclear energy and decarbonizing the German economy, while France has progressively defined its own version of an energy transition and held a year-long national debate on the subject (Débat national sur la transition énergétique). Our contribution analyses the role of energy modeling and energy forecasts in these debates. It analyzes energy outlooks and scenarios as sociotechnical objects contributing to define boundaries between scientific and political questions (Gieryn, 1995; Jasanoff, 1997) and as policy instruments (Lascoumes et Le Galès, 2007) structuring energy policy and its underlying actor-coalitions.
In particular, we aim to address an inherent ambiguity of energy forecasts: historically established by energy companies and state bureaucracies, they tend to close down energy futures by reinforcing power asymmetries in energy debates and by conceptually reproducing path dependences in energy systems. However, energy forecasts also played an important role in opening up energy debates through the formulation of counter-narratives by civil society actors (Aykut, 2015), and they have the potential to facilitate forms of public participation to energy policy-making (e.g. participatory scenario development).
By retracing the emergence and history of Energiewende-scenarios in Germany and of Négawatt-scenarios in France, we aim at analyzing 1) the role of energy forecasts in energy policy-making, insisting particularly on the close link between energy expertise and the political and social context in which it is embedded; 2) the role of scenarios and modeling in sociotechnical controversies, and their “unsettlement” during such controversies; and 3) the importance, for social movements, to develop a “grasp on the future” (Chateauraynaud, 2013) to prepare changes in public policy. More generally, our contribution wants to contribute to a reflection about the possibility of a “technical democracy” (Callon et al., 2001) in the field of energy policy.
Literatur – Zitatbeispiele:
Aykut S.C., 2015. Energy futures from the social market economy to the Energiewende: The politicization of West German energy debates, 1950-1990, in J. Andersson et E. Rindzevičiūtė (Eds), The Struggle for the Long Term in Transnational Science and Politics: Forging the Future. London, Routledge (forthcoming).
Callon M., P. Lascoumes et Y. Barthe, 2001. Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Le Seuil.
Chateauraynaud F., 2013. Des prises sur le futur. Regard analytique sur l'activité visionnaire, in D. Bourg, P.-B. Joly et A. Kaufmann (Eds), Du risque à la menace. Penser la catastrophe. Paris, PUF.
Gieryn T.F., 1995. Boundaries of Science, in S. Jasanoff, G. Markle, J. Peterson et T. Pinch (Eds), Handbook of Science and Technology Studies. London, Sage.
Jasanoff S., 1997. Science at the Bar. Law, Science and Technology in America, Harvard University Press.
Lascoumes P. et P. Le Galès, 2007. From the Nature of Instruments to the Sociology of Public Policy Instrumentation. Governance 20, 1, 1-21.
Dr. Stefan AYKUT ist wissenschaftlicher Mitarbeiter am LISIS (Université Paris-Est), wo er zur Rolle von wissenschaftlicher Expertise in der ökologischen Krise forscht. Seine Themengebiete umfassen insbesondere die internationalen Klimaverhandlungen, Klimakontroversen, sowie die Rolle von Modellen und Szenarien in der Energiepolitik. Stefan ist Autor von 'Gouverneur le climat? 20 ans de négociations internationales', erschienen im Januar 2015 bei Presses de Sciences Po.
André Gazso, Daniela Fuchs
Neue und emergierende Technologien stellen besondere Anforderungen an Regulierung und Politik, weil es keine langfristigen Erfahrungen mit ihnen gibt und ihre Folgen und Risiken daher ungewiss sind. In der Vergangenheit versäumte man bei der Einführung solcher Technologien (etwa der Gentechnik) zuweilen, Besorgnissen in der Bevölkerung angemessen Rechnung zu tragen und mögliche Risiken zu kommunizieren. Um solche Versäumnisse beim Umgang mit Nanomaterialien nicht zu wiederholen, so die Forderung, sollten die zuständigen Behörden von Anfang an pro-aktiv kommunizieren und handeln.
Hier setzt das Projekt NanoTrust des Instituts für Technikfolgen-Abschätzung ein: Ausgehend von der Idee der Anticipatory Governance und – konkreter - des Vorsorgeprinzips soll es einen Beitrag zur Entwicklung der österreichischen Nanotechnologie-Risikogovernance leisten. Das Projekt kann als Teil einer konkreten Umsetzung der Empfehlungen aus dem Österreichischen Aktionsplan Nanotechnologie (ÖNAP) angesehen werden, welcher sich mit dem sicheren Handling möglicher Risiken von Nanotechnologie und Nanomaterialien für Mensch und Umwelt befasst.
Um Behörden einen adäquaten und reflexiven Umgang mit Nanotechnologie zu ermöglichen, liegt das Hauptaugenmerk von NanoTrust auf der Sichtung, der Strukturierung und der Dissemination von risiko- und sicherheitsrelevanter Information. Der Austausch zwischen Wissenschaft und Politik erfordert bestimmte Formen der Interaktion, etwa das Aufbereiten wissenschaftlicher Ergebnisse in einer Form, die für die Regulative verwertbar ist. Desgleichen vermittelt NanoTrust behördliche Anforderungen hinsichtlich (zukünftiger) Forschungsfelder und -fragen an die Wissenschaft. Zielgruppen sind also hauptsächlich ExpertInnen-Gruppen wie die Österreichische Nanoinformationsplattform (NIP) oder die kürzlich gegründete Österreichische Nanoinformationskommission (NIK).
Aus der Erfahrung des permanenten Dialogs zwischen Wissenschaft und Behörden konnten wir einige grundlegende Erkenntnisse gewinnen, die wir in diesem Vortrag diskutieren werden. Insbesondere behandeln wir die spezifische Rolle, die Technikfolgen-Abschätzung in einem solchen Prozess spielen kann. Demnach können Projekte wie NanoTrust als „honest broker“ von wissenschaftlicher Information wirken. Damit sind sie eindeutig ein Element verantwortungsvoller Forschung und Entwicklung; außerdem erlauben sie ein vorausschauendes Risikomanagement entsprechend nationalen und internationalen Risikomanagement-Standards ISO 31000 bzw. ONR 49000.
Literatur:
Gazsó, A., Haslinger, J. (Hrsg.)(2014): Nano Risiko Governance. Der gesellschaftliche Umgang mit Nanotechnologien. Springer 2014.
Dr. André GAZSÓ
Daniela FUCHS, MSc: Seit 2014 als Junior Scientist am ITA, beschäftigt sie sich in ihren Projekten mit den Themen Neuro-Enhancement und Nanotechnologie und Nanomaterialien.
Jens Schippl, Bernhard Truffer, Torsten Fleischer, Armin Grunwald
In Europa und auch in vielen anderen Ländern gibt es gut sichtbare Bestrebungen, Infrastruktursysteme unter verschiedenen Aspekten nachhaltiger zu gestalten. Politische Entscheidungsträger in diesen Ländern/Regionen sind daran interessiert, Innovationen zu identifizieren, die solche Entwicklungen unterstützen. Ein gutes Beispiel ist das Feld der Elektromobilität, das in vielen Ländern von der Politik als gesellschaftlich wünschenswerter Pfad zur Erhöhung der Nachhaltigkeit des Verkehrs- und des Energiesystems gesehen wird. Dabei spielen neben Aspekten des Klima- bzw. Umweltschutzes auch industriepolitische Überlegungen und energiepolitische Strategien eine wichtige Rolle. Nun wird zunehmend problematisiert und auch in der Ausschreibung zur TA15 angesprochen, dass eine stärker systemische und evolutionäre Perspektive auf Innovationsprozesse erforderlich ist für eine erfolgreiche Governance von Innovationen. Die Entwicklung und Bewertung von zukunftsorientierten Handlungsoptionen lässt sich nicht auf einzelne technologische Entwicklungsstränge reduzieren, sondern muss den breiteren gesellschaftlichen, politischen, technischen und ökonomische Kontext betrachten, in den solche Optionen eingebettet werden.
Besonders im Rahmen der deutschen Energiewende wird schnell deutlich, dass die Transformation des Energiesystems über eine Substitution „alter“ Technologien durch neue deutlich hinausgeht. Bestes Indiz ist die politisch und massenmedial geführte Debatte. Denn in ihr geht es nicht um technische Herausforderungen und Probleme, sondern um einen gerechten Strompreis, um die Ablehnung von Pumpspeicherkraftwerken durch die lokale Bevölkerung und um Sorgen vor elektromagnetischer Strahlung durch neue Hochspannungstrassen (Stromautobahnen). Das sind sämtlich keine technischen, sondern soziale Herausforderungen. Ist zwar das Energiesystem „immer schon“ ein soziotechnisches System, so wächst die Bedeutung des „sozio“-Anteils durch die Energiewende. Gesellschaftliche Dynamiken und auch Potentiale zu Veränderung von Einstellungen und Handlungsroutinen müssen mit berücksichtigt werden, um die Komplexität des Systems selbst und seiner Transformation adäquat zu erfassen. So gehen auch im Mobilitätsbereich viele Experten davon aus, dass eine eventuelle Marktdurchdringung batteriebetriebener Fahrzeuge nicht als einfache Substitution herkömmlicher Antriebe verstanden werden kann, sondern mit neuen Schnittstellen zwischen Infrastruktur und Nutzern, mit geänderten Handlungsroutinen und mit sich wandelnden Mobilitätsmustern einher gehen wird.
Institutioneller Wandel ist bei der Transformation sozio-technischer Systeme also mindestens ebenso wichtig wie technischer Wandel. Zukunftsorientierte Aktivitäten wie Foresight und TA, welche die Energiepolitik informieren und orientieren wollen, müssen die Koevolution zwischen institutionellem Wandel und sozialen Dynamiken in den Blick nehmen. Das Energiesystem muss explizit als soziotechnisches System konzeptualisiert werden. Die anvisierten Innovations- und Transformationsprozesse verlangen nach einer integrierten Perspektive auf die vielschichtigen Wechselwirkungen zwischen technischen Entwicklungen und dem sozialen, ökonomischen, industriellen und politischen Kontexten. Ohne solch eine Perspektive besteht die Gefahr suboptimaler Information und letztlich einer schwindenden politischen Unterstützung, aufgrund von Fehleinschätzungen und möglichen Rückschlägen. Es stellt sich folglich die Frage, ob die bisher im Bereich TA und Foresight angewendeten Methoden optimiert werden können, um zu solch einer Perspektive beizutragen.
In dem hier eingereichten Beitrag stellen wir einen methodischen Ansatz zur Diskussion, der helfen soll, in Ergänzung zu anderen Ansätzen, diese koevolutionären Interaktionen in sozio-technischen Systemen besser zu antizipieren. Wir möchten dazu eine Kombination zweier etablierter, aber bisher wenig systematisch verbundener Forschungsstränge nutzen: Technikfolgenabschätzung (TA) und Transition Studies (TS). TA ist bekanntlich stark darauf ausgerichtet, Methoden und Wissen für politische Entscheidungsträger bereit zu stellen, die auf die Abschätzung und Bewertung direkter und indirekter Folgen von technischen Entwicklungen abzielen. Eine ex-ante Perspektive ist folglich konstitutiv für die TA. TS beschäftigt sich mit detaillierten Analysen der wechselseitigen Beeinflussung von Technik und Gesellschaft im Rahmen sozio-technischer Transformationsprozesse und stellt dazu einen reichhaltigen Bestand an oft empirisch gestütztem und theoretisch-konzeptionell gut fundiertem Wissen zur Verfügung. Dabei wird in der Regel eine ex-post Perspektive eingenommen.
Unser Beitrag wird aufzeigen, wie sich eine systematische Verbindung beider Forschungsstränge nutzen lassen kann, um Dynamiken in sozio-technischen Systemen besser abzuschätzen und zu bewerten. Basierend auf Erkenntnissen aus den TS nehmen wir dazu mögliche zukünftige Variationen institutioneller Strukturen in einem sozio-technischen System als Ausgangspunkt und betrachten dann mögliche Wechselwirkungen mit der Entwicklung neuer Technologien. Der Ansatz wird exemplarisch auf die Entwicklung der Elektromobilität im Kontext der deutschen Energiewende angewendet. Der Beitrag will so eine neue Perspektive für TA Praktiker und für Entscheidungsträger aufzeigen, die sich mit den komplexen Dynamiken in sozio-technischen Systemen auseinandersetzen müssen.
Jens SCHIPPL: Wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Wissenschaftlicher Koordinator der Helmholtz-Allianz ENERGY-TRANS. Forschungsschwerpunkte: Innovationsprozesse in sozio-technischen Systemen und Foresight-Methoden in den Bereichen Energie und Verkehr.
Bernhard TRUFFER: Professor an der Universität Utrecht und Leiter der Abteilung Umweltsozialwissenschaften an der Eawag Schweiz. Arbeitsschwerpunkte: Technologische Innovationssysteme und Industriedynamik; Geographie von Transitionsprozessen; Institutionelle Aspekte von Transitionsprozessen; Nachhaltige Infrastruktursektoren (besonders Siedlungwasserwirtschaft); Innovationssystemanalyse; Foresight und Strategische Planung; Inter- und Transdisziplinäre Forschung.
Torsten FLEISCHER: Torsten Fleischer ist Leiter des Forschungsbereichs „Innovationsprozesse und Technikfolgen“ am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Dort forscht er zu Wechselwirkungen zwischen technischem und sozialem Wandel und hier vor allem zur Governance neuer Techniken in den Bereichen neue Materialien, Verkehr und Energie. Darüber hinaus arbeitet er zu Methoden und Verfahren der Technikfolgenabschätzung, zur Partizipation in Innovationsprozessen und zur Wissenschaftskommunikation.
Armin GRUNWALD: Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse des KIT, Leiter des Büros für Technikfolgen-Abschätzung (TAB) beim Deutschen Bundestag, Sprecher des Programms „Technologie, Innovation und Gesellschaft“ der Helmholtz-Gemeinschaft, Inhaber des Lehrstuhls für Technikphilosophie und Technikethik an der Universität Karlsruhe. Forschungsschwerpunkte: Theorie der Technikfolgenabschätzung; Ethik der Technik; Konzeptionen der Nachhaltigkeit; Nanotechnologie und Gesellschaft.
Michael Scharp
Der Vortrag widmet sich ausgewählten Methoden der Zukunftsforschung (Horizon Scanning und Megatrend-Analysen) vor dem Hintergrund sprachanalytischer Probleme. Er will zum Einen aufzeigen, wie ein klares Begriffsverständnis helfen kann, Zukunftsforschung wissenschaftlich valider zu machen und soll zum Anderen aufzeigen, dass es Grenzen der Definitionen für wichtige Begriffe der Methoden gibt. Es gibt jedoch weitere Einschränkungen für die Zukunftsforschung - der Mandantenbezug - und deshalb wird die Frage gestellt, ob Zukunftsforschung wirklich Wissenschaft ist oder nur eine spezielle Form der Unternehmensberatung.
Wissenschaftliche Forschung will wahre oder zumindest sehr wahrscheinliche Aussagen über die Welt machen. Die Welt ist alles, was der Fall ist (Wittgenstein, Tractatus, Satz 1). Wahr sind Aussagen, wenn gesagt wird, dass, was ist, ist und das, was nicht ist, ist nicht (Aristoteles, Metaphysik 4,7, 1011B). Wissenschaftliche Erkenntnis besteht somit in Aussagen über die erkannten Objekte (Korrespondenztheorie, vgl. Philosophisches Wörterbuch, OTB).
Zukunftsforschung als wissenschaftliche Forschung will eigentlich Aussagen über erkannte, aber noch nicht reale Objekte, Sachverhalte oder Zustände machen. Hierbei nutzt die Zukunftsforschung unterschiedliche Methoden wie Horizon Scanning, Megatrend-Analysen, Delphi Befragungen oder Szenario Analysen. Die letzten beiden dürfen als sehr valide gelten hinsichtlich der Methodik, während bei den ersten beiden noch Forschungsbedarf besteht. Innerhalb dieser Methoden wird ein eigenständiges Repertoire verwendet wie z.B. "Emerging Issues", "Weak Signals", "Megatopics", "Aliens" oder auch „Megatrends“ (Scharp 2015, IZT-Bericht i.E.). Es ist charakteristisch, dass es für grundlegende Begriffe im Rahmen des Horizon Scannings oder für Megatrend-Analysen an Begriffsklarheit mangelt. Es gibt weder Nominaldefinitionen zur Regelung des Sprachgebrauchs noch Realdefinitionen zur Bestimmung des Wesen des Begriffs. Schlimmer noch: Moderne naturwissenschaftliche Definitionen nutzen die Theorie selber als Definitionsschema ("Kohlenstoff ist ein vierbindiges Element „), weshalb ein Theoriedefizit sich unmittelbar auf die Erklärbarkeit der Begriffe niederschlägt.
Zukunftsforschung steht somit vor einem doppelten Problem, welches ähnlich dem der Psychologie ist: Einem Mangel an anerkannter wissenschaftlicher Theorie und einem klaren Begriffsverständnis.
In dieser Situation bieten sich für die Forschung nur transparente Verfahren und Operationalisierungen der Begriffe an. Hierbei muss der Wert der Erkenntnis in Abhängigkeit von der Methodik und den Quellen für den Untersuchungsgegenstand oder die Untersuchungsfrage explizit ausgesprochen werden. Mit anderen Worten: Emerging Issues oder Megatrends stehen nicht für sich selber, sondern nur in Verbindung mit ihrer Forschungsfrage. Sie sind somit keine "reinen" Fakten wie historische Ereignisse oder Naturphänomene, sondern konnotierte Sachverhalte. Konnotiert bedeutet hier einen kulturellen (sozialen, ökonomischen, politischen, human-ökologischen) Bezug habend bzw. für unseren humanen kulturellen Kontext von Bedeutung seiend (weshalb ein Mega-Megatrend „Expansion des Universums" vollkommen irrelevant für uns ist). Die Ergebnisse von Methoden wie Horizon Scanning oder Megatrend-Analysen bekommen somit ihre Bedeutung nicht durch die Anwendung einer Methode, sondern nur durch die Anwendung für einen Untersuchungsgegenstand sowie durch eine Validierung der Werthaltigkeit im Konsens mit dem/derjenigen, der/die die Frage gestellt hat. In einer solipsistischen Sicht ist dies der/die Forschende selbst, der/die die Frage stellt, was die Zukunft bringen mag.
Ein gewichtiger Grund für die Validierung der Relevanz durch die Nutzung der Erkenntnis ist, dass zentrale Begriffe (noch?) nicht definierbar sind. "Megatrend" bedeutet für jeden etwas anderes wie die vielfältigen (inkonsistenten) Definitionen zeigen. Damit wandelt sich auch die Vorstellung von der Bedeutung der Erkenntnis, da diese nicht nur in Bezug auf die Forschungsfrage (für was?) sondern auch vom Betrachter (für wen?) abhängig ist. Konsequenterweise muss man dann die Frage stellen, ob Zukunftsforschung mehr als eine Unternehmensberatung ist? (Und wie diese auch nur den Mandantenbezug hat und nicht allgemeingültig ist.)
In dem Beitrag soll deshalb der Versuch unternommen werden, am Beispiel des Horizon Scannings aufzuzeigen, wie eine wissenschaftliche Zukunftsforschung aussehen kann und wo die Grenzen hierbei sind.
Literatur
Aristoteles Metaphysik 4,7, 1011B. Online z.B. zeno.org oder books.google.de Wittgenstein: Tractatus Logicus Philosphicus. Online: tractatusonline. appspot.com/Tractatus/jonathan/D.html
Scharp, M. 2015: Megatrendanalysen - Methodik und Begriffsklärungen. Im Erscheinen. IZT: Berlin