Dirk Helbing
The world is running into great trouble. The anthropocene challenges (including climate change, impending resource shortages, demographic change, conflict, financial and economic crises) call for entirely new answers. As a result, we are now seeing the emergence of data-driven societies around the globe. Feudalism 2.0, fascism 2.0, communism 2.0, socialism 2.0, democracy 2.0 and capitalism 2.0 can now be built. What framework should we choose? What would be the implications?
Dirk Helbing is Professor of Computational Social Science at the Department of Humanities, Social and Political Sciences and affiliate of the Computer Science Department at ETH Zurich. He earned a PhD in physics and was Managing Director of the Institute of Transport & Economics at Dresden University of Technology in Germany. He is internationally known for his work on pedestrian crowds, vehicle traffic, and agent-based models of social systems. Furthermore, he coordinates the FuturICT Initiative (http://www.futurict.eu), which focuses on the understanding of techno-socio-economic systems, using smart data. His work is documented in hundreds of scientific articles, keynote lectures and media reports worldwide. Helbing is an elected member of the prestigious German Academy of Sciences "Leopoldina" and worked for the World Economic Forum’s Global Agenda Council on Complex Systems. He is also co-founder of the Physics of Socio-Economic Systems Division of the German Physical Society and of ETH Zurich’s Risk Center. In 2013, he became a board member of the Global Brain Institute in Brussels. Within the ERC Advanced Investigator Grant "Momentum" he works on social simulations based on cognitive agents. His recent publication in Nature discusses globally networked risks and how to respond. In a further publication in Science, he furthermore contributed to the discovery of the hidden laws of global epidemic spread. On January 10, 2014, he received a honorary PhD from Delft University of Technology, where he is now heading the PhD program "Engineering Social Technologies for a Responsible Digital Future".
Sarah Spiekermann
Die Vernetzung von immer mehr Objekten und Infrastrukturen verändert unser privates und professionelles Leben fundamental. Diese Veränderungen sind für unsere Gesellschaften relevant. Viele unserer Werte sind von Technologie betroffen. Im negativen Sinne steht unsere Freiheit auf dem Spiel, unsere Privatsphäre, die Entwicklung des Menschen zu einem wissenden Wesen, die Gesundheit, etc. Gleichzeitig birgt Technologie aber auch außerordentliche Potenziale für die Förderung von Werten. Voraussetzung für eine positive Nutzung von IT ist, das sich technische Investitionsschwerpunkte verändern. Es ist nicht zu erwarten, menschliche Werte durch Technik zu fördern, wenn der primäre Sinn und Zweck von IT Investitionen heute in Effizienz- und Gewinnsteigerungen besteht. Neben den Zielen und der ‘Haltung’ von Investoren ist entscheidend, dass Werte eine aktive Berücksichtigung beim Design und bei der Entwicklung von Technik finden. Hier sind Softwareingenieure gefragt, die es verdienen, sie „Ingenieur“ zu nennen. Die heute verfolgte Mentalität im Software Engineering des „release-early-release-often“ (und nach mir die Sinnflut...) ist ein „Deadend“.
Der Vortrag richtet sich inhaltlich stark an an dem jüngst erschienenen Lehrbuch aus mit dem Titel „Ethical IT Innovation – A Value Based Approach“. Der beschriebene Ansatz, den ich „E-SDLC“ nenne (steht für „Ethical System Development Life Cycle“) spannt Erkenntnisse aus der Philosophie, der Psychologie, der Informatik und der Managementtheorie zusammen, um zu einem neuen Weg für die Technologieentwicklung zu gelangen.
o. Univ.-Prof. Dr. Sarah Spiekermann lehrt und forscht an der Wirtschaftsuniversität Wien (WU), wo sie dem Institut für Betriebswirtschaft und Wirtschaftsinformatik vorsteht. Frau Spiekermann hat rund 80 Artikel und 3 Bücher im Bereich der werteorientierten, nachhaltigen IT-Gestaltung veröffentlicht, insbesondere zum Thema Privacy und Kontrolle. Im Januar 2016 ist ihr Lehrbuch erschienen mit dem Titel „Ethical IT Innovation – Ein Werte basierter Ansatz für die Systementwicklung“. Ziel von Frau Spiekermanns Arbeit ist sowohl eine ethisch reflektiertere Gestaltung von Technologie als auch ein besseres Verständnis der menschlichen Erwartungshaltungen an Technologie. Frau Spiekermann wurde 1973 in Düsseldorf geboren. Promotion (2000-2002) und Habilitation (2003-2007) erwarb sie an der Humboldt-Universität zu Berlin, wo sie von 2004 bis 2009 das Berliner Forschungszentrum Internetökonomie leitete.
Georg Aichholzer, Matthias Weber, Susanne Giesecke und Bernhard Dachs
Industrie 4.0 und diverse Pendants im Englischen (Fourth Industrial Revolution, Smart Manufacturing, Internet of Things) sind überaus prominente Themen der öffentlichen Debatte und Innovationspolitik geworden. Dahinter steht die Vision einer neuen Stufe umfassender digitaler Vernetzung von Produktionsprozessen über die gesamte Wertschöpfungskette hinweg: Intelligente Maschinen, Betriebsmittel, Logistiksysteme und Produkte tauschen untereinander eigenständig Informationen in Echtzeit aus; es entsteht ein sich weitgehend selbst steuerndes und optimierendes Produktionssystem mit deutlich gesteigerter Flexibilität und Ressourceneffizienz. Die technische Voraussetzung bildet das Zusammenspiel einer ganzen Reihe von Komponenten – von virtuellem Design, fortgeschrittener Sensorik und Robotik bis zu Big-Data-Analysen und 3D-Druck. Sie sind die Basis sogenannter cyber-physischer Systeme, die materielle und virtuelle Prozesse über das „Internet der Dinge und Dienste“ miteinander verknüpfen. Proponenten von Industrie 4.0 erwarten davon einen Nutzen in mehrerlei Hinsicht, v. a. dass sich dadurch europäische Industriestandorte und damit Wachstum und Beschäftigung sichern bzw. ausbauen ließen. Die Umsetzung dieses Konzepts zukünftiger Produktion und Realisierung der damit verbundenen Potenziale ist voraussetzungsvoll und erst in Ansätzen im Gange. Bei fortschreitender Verwirklichung sind jedoch weitreichende Auswirkungen auf betrieblicher, überbetrieblicher und gesellschaftlicher Ebene zu erwarten. Schließlich bedeutet die Transformation von Produktionssystemen durch die unternehmensübergreifende Vernetzung unter Einbindung von Haushalten bzw. VerbraucherInnen Veränderungen und Eingriffe auf zahlreichen Ebenen. Dies wirft entsprechend viele Fragen auf, was Voraussetzungen, Folgen und Möglichkeiten zu sozialverträglicher Gestaltung betrifft. Dazu gehören etwa Fragen des reibungslosen Informationsaustausches zwischen verschiedenen Systemen, Unternehmen und Branchen, die entstehenden Sicherheitsrisiken und Datenschutzfragen sowie der Umgang damit. Mindestens ebenso interessieren die Auswirkungen auf Qualifikationsbedarf, Arbeit, Beschäftigung und Umwelt.
Aufbauend auf einem vor kurzem abgeschlossenen Pilotprojekt für die österreichische Parlamentsdirektion präsentiert der Beitrag Ergebnisse eines ersten Versuchs, mit Hilfe von Methoden des Foresight und der Technikfolgenabschätzung eine vorausschauende Bewertung von Industrie 4.0 vorzunehmen. Das Pilotprojekt hatte den Zweck, an diesem Technisierungsvorhaben Praxis und Nutzen von Technikfolgen-abschätzung und Foresight für die parlamentarische Arbeit zu demonstrieren und wurde gemeinsam vom Institut für Technikfolgenabschätzung (ITA) der Österreichischen Akademie der Wissenschaften und dem Austrian Institute of Technology (AIT) durchgeführt. Methodisch basieren die Ergebnisse primär auf einer umfassenden Literatur- und Dokumentenanalyse sowie einem Experten- und Stakeholder-Workshop.
Der Beitrag gliedert sich in folgende Teile:
1. Klärung der mit dem Konzept „Industrie 4.0“ verbundenen technisch-organisatorischen Vorhaben und daran geknüpften Erwartungen
2. Grobe Bilanzierung von Chancen, Risiken und Herausforderungen in Bezug auf verschiedene gesellschaftliche Wirkungsfelder (Beschäftigung, Arbeitsorganisation, Aus- und Weiterbildung, Gesundheit, Ressourceneinsatz, Wirtschaft und Wettbewerb, Sicherheit, technische Standards, Regulierung)
3. Nähere Betrachtung der Auswirkungen auf Qualifizierung, Beschäftigung und Sicherheit
4. Resümee zu Handlungsbedarf und Handlungsoptionen für die politische Gestaltung
Literatur:
Aichholzer, G., Rhomberg, W., Gudowsky, N., Saurwein, F., Weber, M. (2015). Industrie 4.0. Hintergrundpapier für den 1. Workshop, Studie im Auftrag der Parlamentsdirektion, Wien: ITA & AIT.
Aichholzer, G., Gudowsky, N., Rhomberg, W., Saurwein, F., Weber, M., Wepner, B. (2015). Industrie 4.0. Foresight & Technikfolgenabschätzung zur gesellschaftlichen Dimension der nächsten industriellen Revolution. Zusammenfassender Endbericht. Studie im Auftrag der Parlamentsdirektion, Wien: ITA & AIT.
Georg Aichholzer ist Sozialwissenschaftler und Senior Scientist am ITA, Österreichische Akademie der Wissenschaften. Arbeitsschwerpunkte: e-Governance, e-Democracy, digitaler Wandel.
Matthias Weber ist Sozialwissenschaftler und Leiter des Geschäftsfelds Forschungs-, Technologie- und Innovationspolitik. Seine Arbeitsschwerpunkte sind die europäische Forschungs- und Innovationspolitik und die Transformation sozio-technischer Systeme.
Susanne Giesecke ist Politikwissenschaftlerin und Senior Scientist. Sie arbeitet seit vielen Jahren zu Foresight in den Bereichen Gesundheit und den gesellschaftlichen Folgen neuer Technologien.
Bernhard Dachs ist Ökonom und Senior Scientist. Seine Arbeitsschwerpunkte sind die Internationalisierung von F&E und industrieller Wandel. Alle drei arbeiten am AIT Austrian Institute of Technology, Innovation Systems Department.
Alfons Bora und Ulf Ortmann
Schon Ende der 1980er Jahre empfahl der VDI zur Planung betrieblicher Automationsvorhaben „die frühzeitige Abschätzung und Berücksichtigung der Auswirkungen der Technologie auf die Betroffenen sowie auf die natürliche und gesellschaftliche Umwelt“ (VDI 1989: 8). Im Zusammenhang von Industrie 4.0 haben sozialverträgliche Technikgestaltung und soziotechnische Systemgestaltung wieder Konjunktur. Zum einen soll die Digitalisierung industrieller Produktion einhergehen mit Qualifizierung der Beschäftigten („Facharbeiteringenieure“), innovativer Arbeitsgestaltung („Werkzeugszenario“) und neuen Geschäftsmodellen („Smart Services“). Zum anderen sollen die Beschäftigten frühzeitig in die innovative sozio-technische Gestaltung der Arbeitsorganisation, Weiterbildung sowie die technische Weiterentwicklung einbezogen werden.
Aktuell wird eine ganze Reihe von Zielen öffentlich diskutiert, um Produktionsarbeit „im Sinne der Beschäftigten“ zu gestalten. Ob es sich um den Einsatz von Social Media, von automatischer Identifikation, von Robotik, von Sensorik und Big Data, von 3-D-Druckern oder von Datenbrillen in der industriellen Produktion handelt: Industrielle Produktionssysteme sollen – soziotechnisch – so gestaltet werden, dass den Beschäftigten größtmögliche Autonomie im Arbeitshandeln gewährt wird; dass Facharbeiter in zunehmendem Maße Produktionsprozesse kontrollieren und beherrschen; dass Datenschutz für Beschäftigte gewährleistet wird; dass die gesamte Belegschaft Zugang zu Weiterbildung hat; dass Arbeitsplätze möglichst lernförderlich sind; und dass Arbeitsplätze alterns- und altersgerecht sind. Diese Ansprüche sollen nicht zuletzt dadurch eingelöst werden, dass die Beschäftigten an soziotechnischer Gestaltung beteiligt werden.
Welche kommunikativen Verfahren aber stehen Betriebsräten, Abteilungs- und Geschäftsleitungen zur Verfügung, um Mitarbeiter in umfassende, soziotechnische Veränderungen von Arbeit, Organisation und Technik einzubinden? Wir präsentieren in unserem Vortrag die Ergebnisse eines Verfahrens partizipativer Technikfolgenabschätzung, in dessen Verlauf Elektrotechniker, Maschinenbauer, Softwareentwickler, Produktionsplaner, Vertriebsmitarbeiter und der Betriebsrat eines Konzerns ihre jeweiligen Ziele und Pläne diskutiert haben, die sie mit laufenden Industrie-4.0-Projekten im Konzern verbinden. Am Beispiel dieses Verfahrens stehen Möglichkeiten und Grenzen sozialverträglicher Technikgestaltung im Zentrum des Vortrags.
Ob partizipative Technikfolgenabschätzung dazu beiträgt, Ansprüche soziotechnischer Gestaltung einzulösen, ist skeptisch zu beurteilen: Deutlich wurde im Verlauf der Technikfolgenabschätzung, dass die Hoffnungen und Befürchtungen der Beteiligten wesentlich von den Zielen zu unterscheiden sind, die für die soziotechnische Gestaltung von Industrie 4.0 öffentlich diskutiert werden. Technikfolgenabschätzung führte im präsentierten Fall weniger zu einer Diskussion über Work-Life-Balance, altersgerechter Arbeitsorganisation oder die Rolle von Facharbeitern in der Fabrik der Zukunft. Vielmehr kam die Technikfolgenabschätzung zu dem Ergebnis, dass (1.) die Mitarbeiter im Konzern im Hinblick auf Industrie 4.0 sehr verschiedene Gegenstände, Ansatzpunkte, Ziele und Pläne verfolgen; und dass (2.) Konfliktpotentiale zu identifizieren sind:
(1.) Nur ein Bruchteil der auf Industrie 4.0 bezogenen Erwartungen wird von „den Beschäftigten“ gemeinsam geteilt (dazu zählt etwa die Einschätzung, dass der Aufwand für IT-Sicherheit und Systemadministration steigt); im Wesentlichen ist die Perspektive der Beschäftigten auf Industrie 4.0 geprägt durch Interessen, die auf die je eigene Tätigkeit und Position bezogen sind.
(2.) Konfliktpotenziale bestehen vor allem auf zwei Handlungsfeldern; zum einen sind zwischen Vorgesetzten und Untergebenen Forderungen nach und Rahmenbedingungen von Weiterbildung umstritten; zum anderen bleiben Kompetenzverschiebungen (zugunsten der IT) zwischen Hochqualifizierten unterschiedlicher Fachrichtungen nicht unwidersprochen. Im präsentierten Verfahren haben sich die an verschiedenen Industrie-4.0-Projekten beteiligten Akteure nicht auf Leitlinien soziotechnischer Systemgestaltung geeinigt. Insofern erfüllt Technikfolgenabschätzung hier auch kaum Erwartungen, zur sozialverträglichen Technikgestaltung beizutragen. Das Potential der Technikfolgenabschätzung scheint hier vielmehr darin zu liegen, Verständigung über akteursspezifische Handlungsprobleme und -lösungen zu initiieren.
Literatur: VDI (1989): Handlungsempfehlung: Sozialverträgliche Gestaltung von Automatisierungsvorhaben. Düsseldorf: VDI.
Alfons Bora, Soziologe und Jurist, ist Professor für Soziologie an der Universität Bielefeld. Seine Forschungsschwerpunkte sind Rechts- und Regulierungssoziologie, insbesondere Wissenschafts- und Technikregulierung (Technology Assessment).
Ulf Ortmann, Soziologe, ist wissenschaftlicher Mitarbeiter an der Universität Bielefeld. Seine Forschungsschwerpunkte sind Arbeits- und Industriesoziologie sowie Wissenschafts- und Technikforschung.
Björn Sautter
Die zunehmende Durchdringung aller Lebensbereiche mit „smarten“ digitalen Technologien macht vor den Werktoren der Industrie nicht halt. Hat seit den 1970er Jahren der Einsatz von Mikroelektronik in der Industrie (z.B. in CNC-Steuerungen oder über Industrieroboter) zur wachsenden Automatisierung in der Produktion beigetragen, so scheinen die neuen Entwicklungen in den Informations- und Kommunikationstechnologien das Tor zu einem neuen Zeitalter der Industrialisierung weit aufzustoßen. Nach der Einführung von mechanischen Produktionsanlagen Ende des 18. Jahrhunderts und von arbeitsteiliger Massenproduktion zu Beginn des 20. Jahrhunderts wird nun – nach der mikroelektronikbasierten Automatisierung – von einer vierten industriellen Revolution („Industrie 4.0“) gesprochen. Die Verknüpfung von physischen Objekten und Prozessen mit IT-basierten, virtuellen Objekten und Prozessen in sogenannten „cyberphysischen Systemen“ und die Vernetzung dieser intelligenten Systeme in globalen Datennetzen („Internet der Dinge“) versprechen gänzlich neue Möglichkeiten bei der Organisation und Steuerung von Wertschöpfungsprozessen über den gesamten Produktlebensyzklus hinweg. Intelligente und vernetzte „cyberphysische Produktionssysteme“ sollen zukünftig vertikal in die komplette Unternehmenssteuerung und horizontal über gesamte Wertschöpfungsketten hinweg integriert werden und damit völlig neue Geschäftsmodelle ermöglichen. Die Erstellung eines vollständigen digitalen Abbilds der Wertschöpfung und die Einbindung des Menschen in ein solches „smartes Produktionssystem“ gelten dabei als zentrale Herausforderungen.
Die Erforschung der sozialen Implikationen solcher neuen cyberphysischen Produktionssysteme steht jedoch erst am Anfang. Insbesondere technische Fragestellungen zur Mensch-Maschine-Interaktion und zur kollaborativen Fabrikarbeit mit intelligenten Assistenzsystemen werden intensiv erforscht. Hinzu kommen organisatorische Fragestellungen z.B. zur Mitarbeiterbeteiligung, zu partizipativen Planungsprozessen oder zum gegenseitigen Wissens- und Erfahrungsaustausch. Bildungsaspekte und besonders die zukünftigen Qualifizierungsanforderungen in einem – im Laufe eines Berufslebens – sich dynamisch entwickelnden Arbeitsumfeld spielen in diesem Zusammenhang eine wichtige Rolle. Im Vortrag werden ausgewählte Forschungsergebnisse zu oben genannten Fragestellungen aus Sicht eines wichtigen Impulsgebers und führenden Unternehmens der Industrie- Automatisierung präsentiert. Hierzu werden konkrete Ansätze zur Berücksichtigung sozialer Aspekte von Industrie 4.0 in der eigenen Fertigung (u.a. am Beispiel der 2015 eröffneten Technologiefabrik Scharnhausen) und zur Unterstützung von Aus- und Weiterbildung in Lernfabriken 4.0 vorgestellt. Die Wertschätzung des einzelnen Mitarbeiters, das effektive Zusammenwirken von Menschen und Maschinen in einer wandlungsfähigen Fabrik sowie lebenslanges Lernen werden dabei in den Mittelpunkt der erfolgreichen Produktion von morgen gestellt.
Zum Abschluss des Vortrags werden – mit Blick auf die vorliegenden Ergebnisse der Future Work/Technology 2050 Real-Time Delphi Studie vom Millenium Project – Fragestellungen zu möglichen längerfristigen Implikationen künftiger cyberphysischer Produktionssysteme formuliert, wie sie aus Sicht des familiengeführten Unternehmens geklärt werden müssen, um auch zukünftig sozial verantwortlich handeln zu können.
Dr. Björn Sautter ist seit 2015 bei der Festo AG & Co. KG für strategische Forschungskooperationen zuständig. Zuvor arbeitete er fast 10 Jahre lang beim Steinbeis-Europa-Zentrum als Projektleiter im Bereich „Zukunftsstrategien & Cluster“ und unterstützte dabei partizipative Strategieprozesse für verschiedene technologische Forschungsbereiche. Nach dem Studium der Wirtschaftsgeographie forschte er in den Bereichen Entrepreneurship, Regionalentwicklung und Strukturwandel sowie Cluster und Innovationssysteme. Seit 2014 ist er zertifizierter „Corporate Foresight Professional (EBS)“.
Stefan Selke
Unter Lifelogging werden heterogene Formen digitaler Selbstvermessung verstanden, die von Anwendungen in Forschungskontexten über Experimente in Szenen bis hin zu popularisierten Alltagspraxen reichen. Mt dem Boom digitaler Selbstvermessung sind Risiken sowie Folgen für Individuen und die Gesellschaft verbunden. Lifelogging verändert als Set ‚disruptiver’ Technologien die ‚kulturelle Matrix’, d.h. die Gesamtheit der Regeln des sozialen Zusammenlebens. Popularisierte Praxen können als Vorbote eines neuen Organisationsprinzips des Sozialen betrachtet werden, das auf gesteigerter rationaler Differenzierung basiert. Banal erscheinende Anwendungen (Fitnesstracking) bereiten den Weg für die Akzeptanz weiterer „horizontaler“ Vermessungsformen in unterschiedlichen Anwendungsfeldern – von medizinischer Versorgung bis zur Gestaltung von Arbeitsplätzen, von der Betreuung von Senioren (Ambient Assisted Living) bis hin zur Organisation des Privaten und Intimen. Das disruptive Potenzial dieser Technologien besteht in der schleichenden Gewöhnung an neue Wertvorstellungen und Reproduktionsmechanismen sozialer Beziehungen. In Anlehnung an Hannah Arendt wird dies als Übergang von der „Vita Activa“ (dem tätigen Leben) zur „Vita Assistiva“ (dem unselbständigen Leben) verstanden.
Nimmt die autoritative Macht der Daten weiter zu, entsteht eine neue Diskriminierungsform, die sich typologisch zwischen sozialer und statistischer Diskriminierung einordnen lässt: rationale Diskriminierung. Der erste Begriffsanteil betont die Methode, der zweite die Folgen. Rational heißt diese Diskriminierungsart, weil sie davon ausgeht, dass prinzipiell alles ergründ- und erklärbar ist. Aus proto-wissenschaftlichen Selbstexperimenten werden vermeintlich objektive, reliable und valide Daten nach transparenten Messverfahren abgeleitet. Dennoch kann es zu diskriminierenden Formen neuer sozialer Stratifizierung kommen.
Denn die Daten dienen primär dazu, latente soziale Erwartungen zu „übersetzen“ und sie fungieren als metasoziale Kommentare. Durch Kontextualisierungen werden aus deskriptiven Daten normative Daten. Digitale Selbstvermessung basiert auf Meta-Annahmen über Normalität und zwingt damit gleichzeitig zu standardisierten Verhaltensrepertoires. Damit setzt sich ein defizitorientiertes Organisationsprinzip durch: Durch die Allgegenwart von Vermessungsmethoden kommt es zu ständiger Fehlersuche, sinkender Fehlertoleranz und gesteigerter Abweichungssensibilität anderen und uns selbst gegenüber.
Der Beitrag stellt Entstehungsweisen, Formen und Folgen rationaler Diskriminierung vor, fragt aber vor allem, welche Optionen auf neue Lebensweisen in den „smarten“ Technologien stecken. Hierbei wird auf das Konzept der Konviviality („Lebensdienlichkeit“) nach Ivan Illich sowie die Unterscheidung zwischen „schlauen“ und „dummen“ Dingen (Schmidbauer) zurückgegriffen. Selbstvermessungstechnologien und -praxen werden in den vier interdependenten Dimensionen Materialität, Funktionalität, Kognitivität und Sozialität (Rusch) analysiert. Der Schwerpunkt liegt auf der Reproduktion des Sozialen, um zu verdeutlichen, wie sich im Prozess des Übergangs von Selbstrationalisierung zu Selbstdiskriminierung gesellschaftliche Werterahmen („shifting baselines“) verschieben. Vor allem Gesundheit wird zu einem Feld, in dem gleichermaßen Systemintegration und soziale Ausgrenzung stattfindet.
Abschließend wird die allgemeinste Frage aufgeworfen und ein ethischer Aspekt „smarter“ Technologien berührt: Die Wertschöpfungskette digitaler Daten endet nicht etwa beim sozialen Vergleich der Daten. Vielmehr greifen „Entscheidungsmaschinen“ stellvertretend in das eigene Lebensführungsregime ein – mit durchaus existenziellen Folgen, die einer ex ante Abschätzung bedürfen. Auf welcher Basis werden durch Selbstvermessungstechnologien Entscheidungen getroffen und wer oder was übernimmt dabei Verantwortung? Die These hierbei ist, dass es zur Destabilisierung stabilisierender Wirklichkeitskategorien kommt, weil sich auf diese Technologien nicht anders reagieren lässt, als zentrale Aspekte (z.B. Schuld, Autonomie, Verantwortung) neu zu definieren.
Prof. Dr. Stefan Selke studierte zunächst Luft- und Raumfahrttechnik und promovierte später in Soziologie. Als Professor für das Lehrgebiet „Gesellschaftlicher Wandel“ an der Hochschule Furtwangen (HFU), Prodekan der Fakultät ‚Gesundheit, Sicherheit und Gesellschaft’ sowie seit 2015 als Inhaber der Forschungsprofessur ‚Transformative und Öffentliche Wissenschaft’ forscht er zu Themen des sozialen, technischen und medialen Wandels. Aktuelle Arbeitsgebiete sind die digitale Transformation, digitaler Verbraucherschutz, die assistive Kolonialisierung von Lebenswelten sowie digitale Selbstvermessung (Lifelogging). Mehr dazu in seinem Blog „Stabile Seitenlage“ und unter:
www.stefan-selke.de
Michael Decker
Abstract folgt in Kürze!
Reinhard Heil
Transparenz, Durchsichtigkeit, hat mindestens zwei Gesichter. Zumeist wird nur die Klarheit, die Möglichkeit Einsicht in etwas zu nehmen, hervorgehoben. Das etwas, das transparent ist, gerade weil es durchsichtig ist, unsichtbar bleiben kann, wird häufig nicht bedacht. Oft sind wir umgeben von transparenten Prozessen, die unser Leben mitbestimmen, ohne dass uns dies bewusst ist. Beides, Durchsichtigkeit wie Unsichtbarkeit, sind in Bezug auf Mensch und Gesellschaft Janusworte – sie können jeweils gegensätzliche Bedeutungen haben.
Einsicht nehmen zu können ist natürlich gut, denn es gibt uns die Möglichkeit zu verstehen. Zu viel Transparenz kann aber auch dazu führen, dass sich unsere Gesellschaft in eine, wie es Byung-Chul Han nennt, „Transparenzgesellschaft“ verwandelt, eine Gesellschaft, in der zunehmend Vertrauen durch Kontrolle ersetzt wird.
Dass vieles unsichtbar abläuft führt zum einen dazu, dass unser Leben leichter wird, zum anderen kann es aber auch das selbstbestimmte Handeln erschweren. Die fortschreitende Digitalisierung, vor allem die unter dem Begriff Big Data zusammengefassten Entwicklungen, verschärft dieses Wechselspiel zunehmend. Es stehen immer mehr Daten zur Verfügung, die miteinander verknüpft werden können und es werden immer mehr Entscheidungen automatisiert, im Hintergrund, getroffen. Man selbst wird bspw. für Datensammler immer transparenter im Sinne von einsichtig, während die Verfahren, die diese Einsicht erlauben, für einen selbst immer transparenter im Sinne von „durchsichtig“, nicht sichtbar werden. Dies gilt nicht nur für die Verfahren, die Algorithmen, sondern bereits für die Daten selbst. Daten sind transparent, sie sind immateriell, haben aber Auswirkungen. Diese Auswirkungen müssen sich nicht unmittelbar zeigen und lassen sich oft auch nicht mehr auf ihre Auslöser zurückführen. Auch muss sich erst eine ausreichend große Menge angesammelt haben, damit es zu einer Wirkung kommt. Am ehesten lassen sie sich mit radioaktiver Strahlung vergleichen. Menschen sind ununterbrochen Strahlenbelastungen ausgesetzt. Diese können kumuliert zu einem Tumor führen. Sie müssen es aber nicht. Die Strahlung kann man nicht sehen, nicht riechen, nicht hören. Wann und wo genau ein Mensch exponiert war, lässt sich oft nicht nachvollziehen.
Transparenz kann, wie es Evgeny Morozov treffend beschreibt, zu „digitalem Sonnenbrand“ führen. Das heißt Transparenz kann zwar, wie Sonnenlicht, desinfizierend wirken, zu viel davon ist jedoch ungesund. Gesellschaftliche Prozesse, bspw. beträchtliche Teile des politischen Diskurses sind, um funktionieren zu können auf gewisse Dunkelfelder angewiesen, Orte an denen ohne öffentliche Kontrolle Optionen ausgelotet werden können und wo es möglich ist, ohne Gesichtsverlust Meinungen und Positionen zu verändern. Der Vortrag gibt zum einen, neben einer Darstellung des Bedeutungsfeldes, einen Überblick zum Stand der Kritik der Transparenzideologie, zum anderen werden erste Überlegungen vorgestellt, anhand welcher Kriterien Transparenzforderungen bewertet werden können.
Reinhard Heil, M.A., ist wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruhe Instituts für Technologie (KIT). Seine aktuellen Forschungsschwerpunkte sind – neben Big Data – die sog. „new and emerging sciences and technologies“ (vor allem Synthetische Biologie, Epigenetik, Human Enhancement) und deren gesellschaftlichen Folgen, sowie Transhumanismus und Eugenik. Er ist Co-Koordinator des vom BMBF geförderten Verbundprojekts Assessing Big Data (ABIDA), das gesellschaftliche Chancen und Risiken der Erzeugung, Verknüpfung und Auswertung großer Datenmengen auslotet und Handlungsoptionen für Politik, Forschung und Entwicklung aufweisen möchte.
Thilo Hagendorff
Drei Eigenschaften lassen sich an „smarten Technologien“ identifizieren: Erstens handelt es sich um vernetzte Technologien, also um interoperable informationstechnische Systeme, welche zu immer größeren Netzwerken zusammengeschlossen werden. Zweitens dringen smarte Technologien, vom Fitness-Tracker bis hin zur Datenbrille, zunehmend tiefer in die persönliche Lebens- und Körperwelt ein und „infiltrieren“ damit gleichzeitig private sowie intime Kontexte. Und drittens sind smarte Technologien stets vulnerabel. Maßnahmen der IT-Sicherheit können smarte Technologien niemals absolut sicher vor Angriffen schützen. Es bleiben stets Restrisiken. Indem jedoch die Informationssicherheit jener Technologien niemals gänzlich hergestellt werden kann, ist auch die persönliche Informationskontrolle eingeschränkt. Forciert wird dieser Verlust an Kontrolle durch die aus Sicht des Datenschutzes fraglichen Geschäftspraktiken diverser IT-Unternehmen, welche die Software und Plattformen für smarte Technologien vertreiben und bereithalten. Die Kontrolle über personenbezogene Daten und Informationen ist jedoch die Grundvoraussetzung für die Sicherung der informationellen Privatheit. Gleichzeitig sichert jene Kontrolle die Trennung verschiedener Informationskontexte, innerhalb derer geschützte Informationen exklusiv zirkulieren. Smarte Technologien bedingen jedoch, dass private Endnutzer zunehmend weniger Möglichkeiten der Daten- und Informationskontrolle besitzen. Dies führt zu Irritationen des persönlichen Identitätsmanagements, klassischerweise vor allem dann, wenn Informationen aus privaten oder intimen Kontexten, in welche smarte Technologien, wie erwähnt, eingebettet sind, in nicht-privaten, öffentlichen Kontexten verfügbar werden. Daran anschließend steht die Frage nach der Entwicklung neuer Nutzungsstrategien von smarten Technologien, welche weniger auf vulnerablen Datenschutztechnologien, verletzlichen Privatheitsnormen oder riskanter IT-Sicherheit fußen, sondern welche informationelle Kontrollverlustereignisse erwarten, ja fest mit ihnen rechnen. Gegenwärtige Entwicklungstrends im Bereich digitaler Informations- und Kommunikationstechnologien – welche jeweils dem Prinzip der Datensparsamkeit, des Privacy by Design oder des Privacy by Default entgegenstehen, zeigen an, dass es einen fundamentalen Wandel von tradierten Techniknutzungsroutinen bedarf, damit weniger konfliktreich auf den sukzessiven Verlust der Informationskontrolle reagiert werden kann.
Es stellt sich die Frage nach Strategien, nach Formen der Resilienz, welche gegenüber den Risiken des digitalen Kontrollverlusts eingenommen werden können. Jeder Kommunikationsakt, jedes Verhalten, jede Handlung, welche durch vernetzte smarte Technologien erfasst und verdatet wird, muss unter den Bedingungen des informationellen Kontrollverlusts und der Voraussetzung, möglichst konflikt- und irritationsfrei auf ihn reagieren zu wollen, derart geprüft werden, dass deren öffentliche Effekte beziehungsweise deren Effekte in fremden, also in anderen als den ursprünglichen, angestammten informationellen Kontexten jederzeit vertreten werden können. Das bedeutet, dass die Antizipation von unbestimmten informationellen Fremdkontexten oder Öffentlichkeiten beziehungsweise von fremder oder öffentlicher Bewertung und Prüfung des eigenen Verhaltens zu einer der zentralen Handlungskompetenzen werden muss, welche die Verwendung smarte Technologien flankiert. Gleichsam allerdings gilt es zu berücksichtigen, dass jene kontextfremden oder öffentlichen Effekte diskriminierend, ungerecht, mit übertriebener Härte, ja gar gewaltsam sein können. Strategien, um sich gegenüber den Risiken des informationellen Kontrollverlusts resilient verhalten zu können, müssen daher immer an zwei Polen ansetzen. Erstens an der individuellen Techniknutzung sowie dem individuellen Identitätsmanagement, welches den potentiellen Kollaps von etablierten Informationskontexten immer miteinberechnet, und zweitens an den Empörungs- und Toleranzniveaus der Öffentlichkeit – was im Kern jedoch ebenfalls eine individuelle Verhaltensänderung impliziert – sowie möglichem überwachungsbasiertem Sanktionshandeln von Institutionen. Dies schließt den allgemeinen Umgang mich neuen Transparenzniveaus ein, durch welche Auffälligkeiten, Abweichungen oder Verletzungen sozial etablierter Normen neuen Sichtbarkeitsregimen unterworfen werden. Eine Gesellschaft, welche von smarten Technologien durchzogen ist, muss Reaktionsweisen auf Kontextüberschreitungen von Informationen überdenken ebenso wie neu erlernen.
Thilo Hagendorff (geb. 1987) studierte Philosophie, Kulturwissenschaften und Deutsche Literatur in Konstanz und Tübingen. Derzeit studiert er Medienwissenschaft. Thilo Hagendorff promovierte 2013 mit einer soziologischen Arbeit zum Thema "Sozialkritik und soziale Steuerung" (summa cum laude). Seit 2013 ist er wissenschaftlicher Mitarbeiter am Internationalen Zentrum für Ethik in den Wissenschaften und seit 2014 Dozent an der Universität Tübingen.
Andreas Baur-Ahrens und Marco Krüger
‚Smart Security‘ wird derzeit als Sammelbegriff für ein ganzes Bündel an Initiativen der Luftfahrtbranche zur Verbesserung der Sicherheitsüberprüfungen an Flughäfen verwendet. Die Idee hinter ‚smarteren‘ Sicherheitsüberprüfungen ist, individuell und maßgeschneiderte Sicherheitsmaßnahmen je nach Risikobewertung einzelner Reisender anzuwenden. Dies würde eine Abkehr vom traditionellen Sicherheitskonzept an Flughäfen bedeuten. Während bisher ein einheitliches Sicherheitsscreening angewendet wird, das alle Passagiere denselben Sicherheitsroutinen unterzieht, um gefährliche Gegenstände an Bord auszuschließen, nehmen ‚smarte‘ Sicherheitskontrollen eine datenbasierte Risikobewertung der Passagiere vor und variieren die Intensität der Kontrollen, je nach individuell zugeordneter Risikoeinschätzung. Diese ‚smarten‘ Lösungen sollen maßgeschneiderte Sicherheitskonzepte ermöglichen und laut Verbänden und Unternehmen der Luftfahrtbranche dadurch drei Ziele erreichen: Einen verbesserten Sicherheitsstandard, weniger aufdringliche Sicherheitsuntersuchungen und vor allem eine verbesserte Kosteneffizienz der Sicherheitskontrollen.
Wir untersuchen einerseits die treibenden Kräfte und Argumentationen hinter den ‚smart security‘-Initiativen und beleuchten andererseits kritisch menschenrechtliche und ethische Probleme und Herausforderungen, die eine datenbasierte und automatisierte Risikobewertung von Passagieren nach sich zieht. Hierfür können wir auf Ergebnisse, empirische Daten und Interviews aus unserem kürzlich abgeschlossenen Forschungsprojekt „How Smart Is ‘Smart Security’?“ zurückgreifen.
Wir zeigen, dass die Verbesserung der Sicherheit an Flughäfen zumeist als erstes Argument für ‚smart security‘ genannt wird, es jedoch primär um ökonomische Interessen der Branche geht. Wettbewerbsfähigkeit und Kostenreduktion für aufwändige Sicherheitskontrollen sind dabei die leitenden Motive. Deswegen ist ein wichtiger Bestandteil von ‚smart security‘ diejenigen Passagiere zu erkennen und weniger stark zu kontrollieren, denen ein geringes Sicherheitsrisiko zugeschrieben wird. Hierfür sollen, dem Schlagwort ‚big data‘ folgend, große Datensammlungen ausgewertet werden, um eine möglichst genaue Beschreibung und Bewertung eines Passagiers auf Basis verschiedener Datenquellen vorzunehmen Unsere Analysen verdeutlichen, dass ‚smart security‘ kaum in der Lage ist, den aktuellen Sicherheitsstandard an Flughäfen zu erhöhen. Vielmehr wird unter Verwendung des Schlagworts ‚smart‘ ein Technikensemble geschaffen, das die Erhöhung der Wirtschaftlichkeit der Flugbranche maßgeblich mit den Daten der Passagiere erkauft. Wir argumentieren in diesem Zusammenhang, dass sich Luftfahrtunternehmen die zunehmende Versicherheitlichung des Flugverkehrs zunutze machen, um für die Entwicklung und Einführung neuer, ‚smarter‘ Technologien zu werben und darüber eigene ökonomische Interessen zu realisieren.
Durch die Bedeutung algorithmischer Entscheidungsverfahren tritt dabei die Rolle des Sicherheitspersonals in den Hintergrund. Während Passagiere nur unzureichend über die Nutzung ihrer eigenen Daten entscheiden können, verschwimmt auch die Zuschreibung von Verantwortung in einer Sicherheitskontrolle, die maßgeblich von Algorithmen strukturiert wird. Die Rolle der menschlichen Letztentscheidung wird in einer so gearteten Sicherheitsumgebung angesichts der Eingeschränktheit der durch den Algorithmus vorsortierten Daten fundamental infrage gestellt.
Daher widmen wir uns potenziellen Menschenrechtsproblematiken und ethischen Fragen. Wir zeigen, dass diese in der Entwicklung und den Lobbyanstrengungen vor dem Hintergrund der weitreichenden Konsequenzen der Sicherheitsurteile zu wenig berücksichtigt werden. Fragen nach der Einspruchsmöglichkeit gegen datenbasierte Sicherheitsentscheidungen werden kaum beantwortet. Das Problem einer strukturellen Diskriminierung durch die Definition von Risikogruppen, und damit einhergehend von ‚normalem‘ und ‚verdächtigen‘ Verhalten, wird nicht berücksichtigt. Dabei ist es inhärenter Bestandteil einer algorithmen- und datenbasierten Risikobewertung von Individuen. Angesichts dieser Konsequenzen von algorithmischen Sicherheitsroutinen stellt sich die Frage, für wen ‚smart security‘ eigentlich smart ist.
Andreas Baur-Ahrens und Marco Krüger sind wissenschaftliche Mitarbeiter am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie arbeiteten im Rahmen des Forschungsprojekts ‚How Smart Is „Smart Security“?‘ zu den Folgen von ‚Smart Security‘ für die Flughafensicherheit.
Thomas Länger und Henrich C. Pöhls
Das „Internet der Dinge“ und seine Nutzung in allen Arten von „Smart Services“ lässt sich als weiteres Symptom der fortschreitenden Durchdringung unserer Umwelt mit Informations- und Kommunikationstechnologien begreifen. Einerseits sollen Smart Services, so meinen die Service-Anbieter, ihren Nutzerinnen und Nutzern Erleichterungen und Vorteile bieten, und zur gleichen Zeit soll die Verbreitung dieser Technologie für Wachstum und die dringend benötigten Jobs in verschiedenen Wirtschaftszweigen sorgen. Andererseits gehören Smart Services zu den neuersten alarmierenden Trends, noch viel mehr unserer persönlichsten und privatesten Daten in die schier grundlosen Speicher verschwinden zu lassen, die sich hinter opaken „Computing and Storage Clouds“ jegli-cher Kontrolle durch die eigentlichen Eigentümer der Daten entziehen. Diese Daten werden dann mit Big-Data-Technologien weiter akkumuliert, verarbeitet, miteinander in Beziehung gesetzt und bewertet—um schließlich von Daten-händlern verkauft und von Geheimdiensten abgegriffen zu werden.
Smart Services dringen definitionsgemäß in Bereiche ein, die vorher als grundsätzlich privat galten, und verursachen dadurch eine potentielle massive Bedrohung der Privatsphäre von Individuen. Aber nicht nur das: Durch ihre ausdrückliche Integration von Elementen der physischen Welt können Smart Services auch unsere physikalische Integrität kompromittieren. Die mit diesen Bedrohungen verbundenen Risiken umfassen technische Risiken, Risiken, die Fähigkeit zur Kontrolle und Beherrschung (engl. „governance“) betreffend und besonders eine Anzahl von ernsten Datenschutz- und Privatsphäre-Risiken. Diesen Risiken wird heutzutage überwiegend mit organisatorischen Maßnahmen begegnet, wie zum Beispiel mit „best practices“ und „service level agreements“—aber diese Instrumente sind oft unzureichend, weil ihre Wirksamkeit vom „guten Willen“ des Datenverarbeiters abhängt, und weder die Einhaltung der Abkommen effektiv kontrolliert werden kann, noch die Verletzungen von Vereinbarungen ohne Schwierigkeit nachgewiesen werden kann.
Um diese missliche Lage zu entschärfen, und um den End-Benutzern und Benutzerinnen wieder Kontrolle über ihre Daten zu ermöglichen, schlägt das Horizon-2020-Projekt „PRISMACLOUD“ (“Privacy and Security Maintaining Ser-vices in the Cloud”; Feb. 2015-Aug. 2018) die Anwendung von neuartigen kryptographischen Technologien vor. Ziel ist es, die definierten Sicherheitsziele der End-Benutzer und Benutzerinnen in drei Bereichen mittels kryptographischer Hilfsmittel technisch sicherzustellen: (i) Datenspeicherung in der Cloud, (ii) Schutz der Privatsphäre und Reduzierung der anfallenden Meta-Daten (engl. „data minimisation“) , (iii) Speicherung und Verarbeitung von authentischen Daten. „Secret sharing“-Technologien ermöglichen die sichere Speicherung von Daten in der „public cloud“. „Anonymous credentials“ (dt. anonyme Zugangsdaten) ermöglichen die nicht-nachverfolgbare Benutzung von Smart Services, während gleichzeitig die Bekanntgabe von persönlichen Daten wirksam reduziert wird. Mittels effizienter Verfahren für die Daten-Anonymisierung wird die Zuordnung von Daten zu Individuen verunmöglicht. Spezielle „malleable signatures“ (dt. „editierbare Signaturen“) können die Authentizität von Daten bewahren, die von der Cloud nach Maßgabe der Daten-Eigentümer und –Innen verarbeitet werden. Diese Technologie ermöglicht es auch, Teile der Daten für Dritte zu „entfernen“, wobei die Authentizitäts-Eigenschaft der Daten erhalten bleibt.
Im Mittelpunkt unserer Präsentation stehen neun kürzlich neu entwickelte „cloud security patterns“, welche immer wiederkehrende Situationen in den virtuellen Welten der Clouds und Smart Services beschreiben, in denen die Sicherheit und die Privatsphäre der beteiligten Benutzerinnen und Benutzer auf dem Spiel steht. Diese „cloud security patterns“ zeigen auf, wie durch die Anwendung der erwähnten neuartigen Privatsphäre- und Sicherheitstechnologien ein effektiver Schutz von End-User-Privatsphäre und -Sicherheit gewährleistet werden kann.
Dipl.-Ing. Dr. Thomas Länger ist Informatiker (TU Wien) mit Schwerpunkt Informationssicherheit, Sicherheits-Zertifizierung und Stan-dardisierung von Sicherheits-Technologien. Von 2003 bis 2012 arbeitete er als Forscher für das Austrian Institute of Techology – AIT im Bereich der Anwendung von Quanten-kryptographie. In diesem Bereich schloss er 2013 seinen PhD an der Universität Lausanne ab. Seit 2015 ist er als Post-Doc-Researcher der Swiss Cybersecurity Advisory and Research Group (SCARG) der Universität Lausanne, HEC, Department of Information Systems, im Bereich „Cloud Computing Security“ tätig und erforscht die Auswirkungen der fortschreitenden Migration in Cloud-Computing-Systeme.
Dipl.-Inform. M.Sc. Info.-Sec. Henrich C. Pöhls beschäftigt sich schon seit seinem Informatikstudium (Diplom-Informatiker) an der Universität Hamburg und an der Royal Holloway University of London (M.Sc. in Information Security) mit dem Thema IT-Sicherheit. Seit 2004 forscht er im Team von Professor Posegga und seit 2008 an der Universität Passau. Sein Spezialgebiet ist die praktische und rechtssichere Anwendung von kryptographischen Methoden, insbesondere von Digitalen Signaturen, zur Erhöhung des Beweiswertes von Informationen und zur Erhöhung der Datenqualität. Des Weiteren befasst er sich ausführlich mit Privacy- und Sicherheitsaspekten des Internet-of-Things (IoT) im Forschungsprojekt RERUM (ict-rerum.eu)
Beide Autoren sind Teilnehmer des H2020 Projekts PRIS-MACLOUD (prismacloud.eu; 2/2015-7/2018). Der Vortrag basiert auf Resultaten des Projekts PRISMACLOUD.
Linda Nierling
Die „Digitalisierung aller Lebensbereiche“ macht auch vor der Arbeitswelt nicht halt: Vielmehr werden gerade umfassende technische Visionen einer „Industrie 4.0“ oder unbegrenzte Freiheiten von „Crowdwork“ und ihre möglichen positiven und negativen Konsequenzen intensiv in Wissenschaft und Politik –auch in der Technikfolgenabschätzung – diskutiert (vgl. z.B. Aichholzer, Gudowsky, Saurwein, Rhomberg, Weber, Wepner 2015; Kurz, Rieger 2013; Leimeister, Zogaj, Blohm 2014; van Est, Kool 2015). Gerade Studien, die große Rationalisierungspotentiale digitaler Technologien aufzeigten, sorgten kürzlich für eine große Aufmerksamkeit für das Thema (vgl. Brynjolfsson, McAfee 2014; Frey, Osborne 2013).
Allerdings lassen sich – jenseits dieser aktuellen Entwicklungen – schon seit einigen Jahren tiefgreifende Veränderungen in der Arbeitswelt konstatieren, die eng mit technischen Entwicklungen verbunden sind: So ermöglichte das world wide web weitreichende Formen der Globalisierung von Arbeit auf der Makroebene (Flecker 2012). Auch auf der (Mikro-)Ebene des Arbeitsplatzes ließen sich neue Organisationsformen von Wissensarbeit als z.B. mit dem Terminus der „Informatisierung“ (Boes, Kämpf, Langes, Lühr 2014) beschreiben. Die Einführung digitaler Technologien lässt sich demnach tatsächlich als Zäsur im herrschenden Wandel von Arbeit verstehen, allerdings ist diese eng verknüpft mit gesellschaftlichen und organisationalen Veränderungen. Zudem lassen sich digital gestützte Transformationsprozesse schon seit den 1990er Jahren beobachten.
Auf Basis laufender TA-Projekte werden in diesen Beitrag Visionen einer „smarten Arbeitswelt“ in Bezug zu empirischen Befunden des Arbeitsmarkts gesetzt. Dabei sollen, anknüpfend an „alte“ Debatten um Arbeit (Flexibilisierung, Entgrenzung, Rationalisierung), die tatsächlichen Folgen „neuer“ digitaler Technologien kritisch vor dem Hintergrund von Veränderungen in der Arbeitswelt diskutiert werden. Basierend darauf werden abschließend aktuelle Gestaltungsnotwendigkeiten für Arbeit mit Blick auf das zu erwartende Potenzial neuer technischer Entwicklungen vorgeschlagen.
Literatur:
Aichholzer, G., et al. (2015): Industrie 4.0. Foresight & Technikfolgenabschätzung zur gesellschaftlichen Dimension der nächsten industriellen Revolution. Zusammenfassender Endbericht. Wien.
Boes, A., et al. (2014): Informatisierung und neue Entwicklungstendenzen von Arbeit. In: Arbeits- und Industriesoziologische Studien, Jg. 7, Heft 1, S. 5-23.
Brynjolfsson, E.; McAfee, A. (2014): The Second Machine Age. W.W.Norton, New York, London.
Flecker, J. (Hrsg.) (2012): Arbeit in Ketten und Netzen. Die dynamische Vernetzung von Unternehmen und die Qualität der Arbeit. edition sigma, Berlin.
Frey, C. B.; Osborne, M. A. (2013): The future of emplyoment: How susceptible are jobs to computerisation? Oxford.
Kurz, C.; Rieger, F. (2013): Arbeitsfrei. Eine Entdeckungsreise zu den Maschinen, die uns ersetzen. Riemann, München.
Leimeister, J. M., et al. (2014): Crowdsourcing und Crowd Work - ein Zukunftsmodell der IT-gestützten Arbeitsorganisation? In: Brenner, Walter; Hess, Thomas (Hrsg.): Wirtschaftsinformatik in Wissenschaft und Praxis. Business Engineering. Springer, Berlin, Heidelberg, S. 51-64.
van Est, R.; Kool, L. (Hrsg.) (2015): Working on the Robot Society. Visions and Insights from Science Concerning the Relationship between Technology and Employment. Rathenau Instituut, The Hague.
Dr. Linda Nierling studierte Umweltwissenschaften und Betriebswirtschaftslehre an der Universität Lüneburg sowie der ETH Zürich, Schweiz. Nach dem Abschluss als Diplom-Umweltwissenschaftlerin arbeitet sie seit 2005 als wissenschaftliche Mitarbeiterin am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Im Jahr 2011 promovierte sie im Fachbereich Gesellschaftswissenschaften der Goethe-Universität Frankfurt am Main über Anerkennungsverhältnisse in erweiterten Arbeitskontexten. Ihre Forschungsschwerpunkte liegen in den Bereichen Wandel der Arbeit, Arbeit und Technik, assistive Technologien (AT), Postwachstum, sowie Methoden der qualitativen Sozialforschung.
Sabine T. Koeszegi und Georg Reischauer
Industrie 4.0, der im deutschen Sprachraum verwendete Dachbegriff für Smart Production, wird zu einem Wandel von Industriearbeit führen. Im Mittelpunkt der Forschung zu Industriearbeit 4.0 stehen gegenwärtig vor allem zwei Aspekte. Zum einen wird diskutiert, wie der Mensch die veränderten Arbeitssituationen auf dem Shopfloor bestmöglich meistern kann. Zum anderen werden Überlegungen darüber angestellt, wie Industriearbeit unternehmensweit für den Einsatz von Smart Production-Technologien gestaltet werden kann. Jedoch wird in beiden Diskussionen nur mäßig beachtet, welche grundsätzliche Rolle dem Menschen und welche den Maschinen in Industrie 4.0 zugedacht werden, welche Handlungsspielräume eingeräumt und welche Vorteile bzw. Nachteile durch den parallelen Einsatz von Mensch und Maschine erwartet werden können.
Dieser Beitrag argumentiert, dass das implizit vorherrschende Menschenbild in den verschiedenen Konzeptualisierungen von Industrie 4.0 ein wesentlicher Faktor dafür ist, wie Zukunftsszenarien über die Rolle des Menschen gezeichnet und Industriearbeit gestaltet werden wird. Ein Menschenbild beinhaltet grundlegende Annahmen über Menschen. Im Zusammenhang mit Smart Production-Technologien ist aber vor allem das Verhältnis von Technik und Mensch interessant. Im Rückgriff auf die Einsichten der jüngeren Technik-, Arbeits- und Organisationsforschung lassen sich drei grundlegende Menschenbilder ausmachen, die mit jeweils unterschiedlichen Ansätzen zur Gestaltung von Arbeit für Industrie 4.0 einhergehen: das humanzentrierten Ansatz, der technikzentrierte Ansatz und der soziomaterielle Ansatz.
Im humanzentrierten Ansatz steht der Mensch mit seinen besonderen Kompetenzen, wie seine Kreativität, seine Fähigkeit zur Empathie etc., aber auch mit seinen Bedürfnissen im Mittelpunkt. Der Mensch wird aufgrund seiner Flexibilität und Anpassungsfähigkeit als zentraler produktiver Akteur der industriellen Leistungserstellung angesehen. Smart Production-Technologien fungieren hier als Mittel, um Menschen in der Produktion bestmöglich zu unterstützen und unerwünschte Aspekte wie physische Belastung oder Monotonie abzubauen. Wenngleich der humanzentrierte Ansatz dem Ideal der Humanisierung von Arbeit entspricht, werden die Einschränkungen von sozialer Organisation in Form von formalen und informalen Strukturen und Prozessen, die in einem Unternehmen bestehen, nur unzureichend betrachtet.
Der technikzentrierte Ansatz fokussiert hingegen auf Maschinen. Die Maschine wird aufgrund ihrer Robustheit, Präzision, Belastbarkeit und augenscheinlicher Fehlerlosigkeit als wesentlicher produktiver Akteur erachtet. In diesem Ansatz steht der effektive und effiziente Einsatz von Smart Production-Technologien im Vordergrund, weil der Mensch mit seinen beschränkten kognitiven und physischen Kapazitäten sowie als potenzielle Fehlerquelle soweit wie möglich aus dem Produktionsprozess ausgeschlossen werden soll. Nur ganz besonders ausgebildete und fähige Fachkräfte sollen mit überwachenden und steuernden Tätigkeiten betraut werden. Die reine Instrumentalisierung des Menschen sowie die vordergründige Betrachtung seiner potenziellen Schwächen oder gar „Mängel“ ist hier ein wesentlicher und kritischer Aspekt des Ansatzes.
Beide Ansätze verkürzen die Komplexität gelebter Arbeitspraxis im Kontext industrieller Produktion, in der Arbeitsorganisation, Technik und menschliches Handeln ineinander verwoben sind und sich gegenseitig bedingen und beeinflussen. Der soziomaterielle Ansatz spricht Mensch und Maschine einen interdependenten Akteursstatus zu. Mensch und Maschine werden im hier jeweils eigenständige Zweck- und Mittelsysteme eingeräumt, die zwar teilweise autonom, jedoch nicht voneinander unabhängig sind. Es liegt eine Co-Evolution zwischen Mensch, Maschine und Arbeitsorganisationvor, die jedoch an sich ergebnisoffen ist und somit von sich aus weder in bessere Arbeitssituationen noch in fehlerfreiere Maschinen mündet. Vielmehr entsteht ein Spannungsverhältnis, das fortlaufend zu bearbeiten ist.
Der Beitrag illustriert Folgen und Konsequenzen von Konzeptualisierungen des Menschenbildes im humanzentrierten, technikzentrierten und soziomaterielle Ansatz anhand von in der Literatur angeführten Beispielen und Diskursen zu Smart Production und Industrie 4.0. Ziel dieser kritischen Diskursanalyse ist es, durch Einsichten aus der jüngeren Technik-, Arbeits- und Organisationsforschung zu einer menschengerechten Gestaltung von smarten cyber-physischen Systemen beizutragen. Der Fokus auf Menschenbilder als impliziter – aber zentraler – Gestaltungsfaktor von Industriearbeit adressiert dabei letztendlich die Frage, welche Bedeutung der Mensch in Smart Production Systemen haben wird.
Prof. Sabine T. Koeszegi leitet die Abteilung für Arbeitswissenschaft und Organisation des Instituts für Managementwissenschaften an der Technischen Universität Wien.
Georg Reischauer ist wissenschaftlicher Mitarbeiter im Forschungscluster Organisation, Management und Leadership an der Hertie School of Governance.
Herbert Saurugg, MSc
Wir haben in den letzten 10-15 Jahren in vielen Bereichen den Vernetzungsgrad massiv erhöht. Ein wesentlicher Treiber war und ist dabei die Informations- und Kommunikationstechnik. Aktuelle Themen wie etwa Industrie 4.0, Smart Grid, Big Data oder Internet der Dinge versprechen einen noch viel höheren Vernetzungsgrad. Doch selten ist den Verantwortlichen Stakeholdern dabei bewusst, dass mit dem Vernetzungsgrad auch die Komplexität zunimmt und damit systemische Risiken entstehen, auf die wir nicht vorbereitet sind. Die Folgen und Auswirkungen werden daher systematisch unterschätzt. Dies lässt sich ganz konkret am Beispielszenario eines europaweiten Strom- und Infrastrukturausfalls („Blackout“) oder anhand von aktuellen Cyber-Sicherheitsvorfällen darstellen. Es wird zwar zunehmend mehr Aufwand in die Verhinderung von Ereignissen und mittlerweile auch verstärkt in die Früherkennung investiert, die Vorbereitung auf mögliche nicht verhinderbare Ereignisse und deren Folgen spielt jedoch noch kaum eine Rolle, bzw. wird die damit verbundene Komplexität und Dynamik massiv unterschätzt.
Die neuen Vernetzungsabsichten und Versprechungen der Industrie werden die Verwundbarkeit der Systeme, Infrastrukturen bzw. die der Gesellschaft insgesamt noch deutlich erhöhen. Sollen wir deshalb auf die möglichen Chancen verzichten? Nein! Aber wir sollten uns der entstehenden Risiken und Unsicherheiten Bewusst sein und von Beginn an notwendige Rückfallebenen definieren, damit ein Ausfall von (lebens)wichtigen Infrastrukturen nicht wie aktuell in Katastrophen münden können. Ganz entscheidend ist dabei die nötige Achtsamkeit, um bereits frühzeitig Fehlentwicklungen erkennen zu können, dort wo noch reversible Gegensteuerungsmaßnahmen möglich sind.
Komplexe Systeme reagieren anders, als unsere bisher gewohnten „linearen Maschinen“. Kleine Ursachen können zu großen (negativen) Auswirkungen führen, die durch mögliche Dominoeffekte verstärkt werden. Nicht-Lineares Verhalten, wechselseitige Abhängigkeiten und die Ausbreitungsmöglichkeiten von Störungen über Systemgrenzen hinaus überfordern unsere bisherigen Risiko- und Krisenmanagementmethoden. Die bisher häufig erfolgreiche Herangehensweise, mittels Versuch und Irrtum eine Weiterentwicklung voranzutreiben, kann in komplexen Systemen bzw. in der „smarten neuen Welt“ zu weitreichenden, fatalen und irreversiblen Folgen führen.
Daher ist es notwendig, sich intensiver mit dem Thema „Komplexität“ zu beschäftigen und in die Ausbildung einzubinden, um die Chancen der Digitalisierung nutzen und gleichzeitig die entstehenden Unsicherheiten besser bewältigen zu können. Komplexe technische Systeme und Umwelten erfordern neue Lösungswege, wie etwa ein vernetztes Resilienz- und Robustheitsdenken, sowie eine höhere organisatorische Komplexität, um mit den erwartbaren Auswirkungen umgehen zu lernen.
Dieser Vortrag wird einige aktuelle und zukünftige Herausforderungen an ganz konkreten praktischen Beispielen darstellen und entsprechende Querverbindungen zur „Smart New World“ herstellen.
Herbert Saurugg, MSc, war 15 Jahre Berufsoffizier des Österreichischen Bundesheeres, zuletzt im Bereich IKT-/Cyber-Sicherheit. Seit 2012 beschäftigt er sich mit den möglichen Auswirkungen der steigenden Vernetzung und Komplexität, welche zu bisher kaum bekannten systemischen Risiken führen.
Als Experte für die Vorbereitung auf den Ausfall lebenswichtiger Infrastrukturen und Querdenker greift er Themen mit hoher gesellschaftlicher Relevanz auf. Er ist etwa Gründungsmitglied von Cyber Security Austria – Verein zur Förderung der Sicherheit Österreichs strategischer Infrastruktur. Sein aktuelles Schwergewicht liegt auf der Sensibilisierung und gesellschaftlichen Vorbereitung auf einen möglichen europaweiten Strom- und Infrastrukturausfall („Blackout“). Zusätzlich ist er Forschungspartner bei verschiedenen (Sicherheits-)Forschungsprojekten. Er betreibt auch den Blog „Vernetzung & Komplexität“ unter www.saurugg.net.
Florian Saurwein, Natascha Just und Michael Latzer
Information, Kommunikation und Transaktionen im Internet werden zunehmend automatisiert von Algorithmen vollzogen, deren Einfluss auf die Wahrnehmung sowie auf menschliche Handlungen und maschinelle Operationen immer mehr steigt. Wirkungen lassen sich anhand von Beispielen illustrieren, wie dem Einfluss von Empfehlungssystemen auf das Kaufverhalten, dem Einfluss von Suchmaschinen-Rankings auf die Lenkung von Aufmerksamkeit im Internet oder dem Einfluss von News Feeds in sozialen Netzwerken auf die Nachrichten-Industrie. Häufig wird argumentiert, Technik, Software und Algorithmen haben eine regulierende Kraft, die mit jener von Recht vergleichbar ist (Musiani 2013; Pasquale 2015; Gillespie 2014; Manovich 2013, Just/Latzer 2016; Lessig 1999).
Beobachtungen hinsichtlich des Einflusses und der Macht von Algorithmen („Governance durch Algorithmen“) werden von Diskussion begleitet, wie diese Macht im gesellschaftlichen Interesse kontrolliert und gestaltet werden kann („Governance von Algorithmen“). V.a. die dominante Position von Google wird dabei immer wieder heftig kritisiert und hat zu Aufsichtsverfahren und Debatten über Regulierungen im Suchmaschinensektor geführt. Aber die Anwendungen algorithmischer Selektion und die damit verbundenen Risiken gehen weit über Internet-Suche und Google hinaus. Deshalb muss auch der Analysebereich verbreitert werden, um die Anwendungsformen, die Risiken und Steuerungsoptionen für algorithmische Selektion adäquat zu erfassen.
Dahingehend präsentiert der Konferenzbeitrag die Ergebnisse einer explorativen Analyse der Governance von Algorithmen auf Basis eines risiko-basierten Ansatzes (Latzer et al. 2014). Empirisch werden neun spezifische Risiken von algorithmischer Selektion identifiziert (Manipulation, Verzerrung, Verletzungen von Privatsphäre und Eigentumsrechten, Verselbständigung, negative kognitive Effekte, Zensur, soziale Diskriminierung, Missbrauch von Marktmacht). Anschließend wird untersucht welche Governance-Formen am Kontinuum zwischen Markt und Staat eingesetzt und vorgeschlagen werden, um den jeweiligen Risiken zu begegnen. Dabei zeigen sich sowohl die Governance-Optionen als auch Governance-Lücken in Bezug auf einzelne Risiken.
Die systematischen Analysen verdeutlichen, dass einige der identifizierten Risiken bereits mittels verschiedener Governance-Ansätze adressiert werden (z.B. Datenschutz), während für andere Risiken noch keine Governance-Maßnahmen ersichtlich sind (Verselbständigung, negative kognitive Effekte). Während für einige Risiken ausschließlich Marktlösungen vorgeschlagen werden (Verzerrung), bestehen bei anderen Risiken sowohl Marktlösungen als auch regulatorische Maßnahmen (Verletzung von Eigentumsrechten). Während es eine Vielzahl an praktischen Maßnahmen und Vorschlägen für die individuelle Selbstkontrolle durch Unternehmen gibt (Selbstorganisation), finden sich für die Risiken der algorithmischen Selektion bislang kaum Ansätze für Formen der Ko-Regulierung, wo staatliche Stellen mit privaten Akteuren auf Basis einer rechtlichen Grundlage regulatorisch kooperieren.
Zusammenfassend zeigt sich, dass kein übergreifendes institutionelles Muster für die Governance von Algorithmen besteht, sondern ein breites Spektrum an Massnahmen und Optionen aber auch Lücken, deren mögliche Ursachen im Beitrag skizziert werden.
Literatur:
Just, N. & M. Latzer (2016), Governance by algorithms: Reality construction by algorithmic selection on the Internet. Forthcoming in Media, Culture & Society 2016.
Gillespie, T. (2014), The Relevance of Algorithms, in Gillespie, T. et al. (eds.), Media Technologies. Cambridge.
Latzer, M., J. Gewinner, K. Hollnbuchner, N. Just & F. Saurwein (2014), Algorithmische Selektion im Internet. Ökonomie und Politik automatisierter Relevanzzuweisung in der Informationsgesellschaft. Forschungsbericht, Universität Zürich.
Lessig, L. (1999), Code and Other Laws of Cyberspace, New York.
Manovich, L. (2013), Software Takes Command, New York.
Musiani, F. (2013), Governance by algorithms. Internet Policy Review, 2(3).
Pasquale, F. (2015), The Black Box Society. Harvard.
Saurwein, F., N. Just & M. Latzer (2015), Governance of algorithms: Options and limitations. Info, 17 (6), 35–49.
Florian Saurwein: Institut für vergleichende Medien- und Kommunikationsforschung (CMC), Österreichische Akademie der Wissenschaften | Alpen-Adria-Universität
Natascha Just: Abteilung Medienwandel & Innovation, IPMZ – Institut für Publizistikwissenschaft und Medienforschung, Universität Zürich
Michael Latzer: Abteilung Medienwandel & Innovation, IPMZ – Institut für Publizistikwissenschaft und Medienforschung, Universität Zürich
Ingrid Schneider
Internet-Plattformen nehmen eine wichtige Rolle in der Entwicklung der "smarten" Digitalisierung ein. Sie werden auch beim Internet der Dinge und der Konnektivität smarter Technologien bedeutsam sein. Die meisten dieser Internet-Plattform-Unternehmen wie Google/ Alphabet, Facebook und Apple sitzen im Silicon Valley. Autoren wie Richard Barbrook und Andy Cameron (1996) verorten dort eine "kalifornische Ideologie, die sie als "widersprüchliche Mischung aus technologischen Determinismus und libertärem Individualismus" oder auch "dotcom-Neoliberalismus" kennzeichnen. Fred Turner (2006) zeichnet die Transformation von der "Gegenkultur zur Cyberkultur" nach. Es fragt sich allerdings, ob Spuren dieser Gegenkultur über den Dresscode hinaus weiterhin wirksam sind. Gleichwohl lässt sich jedenfalls ein unterschiedliches Wertesystem im Umgang mit Digitalisierung zwischen den USA und Europa feststellen (Morozov 2013; Schneier 2015; Kitchin 2014, Lyon 2014; Keen 2015). Wie und wodurch diffundiert dieses Wertesystem - durch die Produkte selbst, durch Geschäftsmodelle oder ökonomische Mechanismen? Netzwerkeffekte, hohe Switching-Kosten, Lock-In, Skaleneffekte und andere Mechanismen erhöhen die Macht von Plattformindustrien und können zu Oligopolisierungstendenzen führen.
Der Vortrag wird einige wirtschaftlichen und kulturellen Implikationen dieser Plattform- Unternehmen erkunden und ihre Auswirkungen auf Politik und Demokratie in Europa explorieren. Die zugrunde liegende These ist, dass institutionelle Politik, repräsentative Verfahren und der Staat zugunsten einer vermeintlich "direkten" Interaktion mit den Bürgern marginalisiert werden. Die Bürger werden als Kunden gefasst, die Konditionen der datengetriebenen Geschäftsmodelle und Dienstleistungen werden vertragsrechtlich geregelt. Die Akzeptanz des Vertrags in den AGBs gilt als ausreichende Legitimation. Kann die EU-Datenschutzgrundverordnung diese Bedingungen verändern? Welche regulatorische Ansätze stehen zur Verfügung, um Digitalisierung in smarter Weise demokratischer zu gestalten?
Literatur:
Barbrook, Richard/ Cameron, Andy 1996: The Californian Ideology, in: Science as Culture 6(1): 44-72.
Keen, Andrew (2015). The Internet Is Not the Answer. London- Atlantic Books.
Kitchin Rob 2014: Big Data, new epistemologies and paradigm shifts, in: Big Data & Society, June 2014.
Lyon David 2014: Surveillance, Snowden, and Big Data: Capacities, consequences, critique, in: Big Data & Society, July 2014.
Morozov, Evgeny (2013). Smarte neue Welt: Digitale Technik und die Freiheit des Menschen. München: Blessing.
Schneier, Bruce (2015). Data and Goliath: The hidden battles to collect your data and control your world. New York: Norton.
Turner, Fred 2006: From Counterculture to Cyberculture. Univ. of Chicago Press.
World Bank 2016: World Development Report 2016: Digital Dividends. Washington.
Prof. Dr. Ingrid Schneider lehrt am Institut für Politikwissenschaft und ist seit 2002 wissenschaftliche Mitarbeiterin des Forschungsschwerpunkts BIOGUM (Biotechnologie, Gesellschaft und Umwelt) der Universität Hamburg. Sie arbeitet zu TA und Demokratietheorie, Policy-Analyse, Rechtliche Regulierung und Politik, Digitalisierung, Big Data und Datenschutz. Sie gibt gerade einen Sammelband zu "Big Data - Big Brother?" zusammen mit Ann Rudinow Saetnan und Nicole Green heraus und arbeitet mit an einem Filmprojekt zum Silicon Valley.
E-Mail: Ingrid.Schneider@uni-hamburg.de
Carsten Orwat, Anika Hügle und René König
Die rasch fortschreitende Realisierung „smarter Welten“ erfordert und bewirkt, dass gesellschaftliche Regeln der menschlichen und maschinellen Interaktionen durch digitale Systeme ermöglicht, administriert und durchgesetzt werden. Neben der automatisierten Bewältigung großer Interaktionsmengen geht es zunehmend auch um die technische Sicherstellung des Regelvollzugs, die Detaillierung, Flexibilisierung und Personalisierung von Regeln und deren „selbständig lernende“ Anpassung und Weiterentwicklung. Automatisierte Regelausführungen können zudem wie automatisierte Entscheidungen wirken, sind von außen kaum nachvollziehbar und generieren große Mengen nicht selten personen-bezogener Daten. Dadurch werden Fragen der Legitimität von gesellschaftlichen Regeln und Entscheidungen unmittelbar berührt.
Die Diskussion der in digitalen Systemen implementierten, gesellschaftlichen Regeln wurde bereits unter den Begriffen „Lex Informatica“ (Reidenberg) und „Code is Law“ (Lessig) populär diskutiert. Fragen der Legitimität wurden dabei bisher allerdings nur punktuell gestellt. Zusätzlich fällt die öffentliche Diskussion dazu durch nicht ausreichende Differenzierung auf, die sich teils auch auf Seiten der wissenschaftlichen Bearbeitung widerspiegelt und alle derartigen Regelsysteme gleichermaßen kritisiert.
Unterschiedliche Regelsysteme müssen aber grundsätzlich sehr divergierenden Legitimationsansprüchen gerecht und entsprechend bewertet werden. Beispielsweise sind derzeit die meisten in digitalen Systemen implementierten gesellschaftlichen Regelsysteme Teile von marktlichen Verträgen. Deren Legitimität wird durch Prinzipien der Vertragsfreiheit begründet und durch rechtliche Rahmungen zum Schutz der Vertragsparteien und der Wettbewerbsfähigkeit von Märkten gesichert. Allerdings kann der gegenwärtig stark verfolgte Ansatz, Legitimität durch Stärkung der Eigenverantwortung des Endnutzers in Marktentscheidungen zu erreichen - wie dies insbesondere mit Betonung und Erleichterung der „informierten Zustimmung“ praktiziert und weiterhin angestrebt wird - auch zu kurz greifen, wenn dadurch fundamentale Grundrechte nicht ausreichend geschützt werden. Dann kann geschlussfolgert werden, dass andere Voraussetzungen der Legitimität erfüllt werden müssen.
Des Weiteren wird das Erfordernis immer deutlicher, dass Datenverarbeitungs- und Analysemethoden, die unter dem Stichwort „Big Data“ debattiert werden, beispielsweise einer stärkeren Regulierung zu unterziehen sind, um Fehlentwicklungen zu beschränken. Die in Datenverarbeitungsverfahren implementierten Regeln wurden und werden immer mehr zu gesellschaftlichen Regeln, die ähnlicher Aufmerksamkeit und Behandlung bedürften wie beispielsweise Gesetze.
Ferner entstehen zunehmend „Subnetze“ im Internet, wie mehr oder weniger geschlossene Heim- und Unterhaltungsnetze, Verkehrsmanagementnetze, vernetzte Wertschöpfungsketten oder Plattformen großer Internetunternehmen, deren Regeln über Zugang, Nutzung oder Ausstieg entscheiden. Hierbei werden selbst die Standards und das Design der Schnittstellen zu gesellschaftlichen Regeln, die über Wahlfreiheiten der Nutzer und über wirtschaftliche Teilnahmemöglichkeiten an den „Quasi“-Infrastrukturen für weitere Innovationen und Aktivitäten entscheiden.
Dieser Beitrag zielt darauf ab, (1.) eine Differenzierung der digitalen Regelsysteme anhand von Fallbeispielen zu erreichen und ihre Legitimität demokratietheoretisch zu bewerten. Dabei gilt es die Komplexität digitaler Regelsysteme hinsichtlich ihrer verschiedenen Legitimitätsansprüche aufzuschlüsseln. (2.) Des Weiteren sollen im Beitrag auch Ansatzpunkte und Handlungsoptionen zur Sicherung oder Herstellung von Legitimität aufgezeigt werden. Hier ist an Möglichkeiten der Stakeholder-Partizipation, Einbindung von dritten Akteuren zur Aufsicht und Kontrolle (Auditoren) bis hin zu staatlicher Rahmensetzung und direkten Eingriffen zu denken.
Dr. Carsten Orwat studierte Wirtschaftswissenschaft und promovierte im selben Fach. Seit 2000 ist er am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT) in Projekten der Technikfolgenaschätzung von Informations- und Kommunikationstechnologien tätig. Zu seinen Forschungsinteressen zählen ebenso Fragen der Governance von und durch Technologien insbesondere Software.
Dipl.-Politologin Anika Hügle, studierte Politikwissenschaft und Völkerrecht. Seit 2012 arbeitet sie als Wissenschaftliche Mitarbeiterin am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT) in unterschiedlichen Projekten. Ihre Forschungsschwerpunkte sind Fragen der Legitimität von Entscheidungen und Fragen der Governance in Multi-Stakeholder Netz-werken im Kontext von Big Data.
René König ist Soziologe und forscht am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT) zu den gesellschaftlichen Folgen des Internets mit einem besonderen Interesse für Plattformen und Algorithmen und ihren wissenssoziologischen Implikationen. Zuvor war er Mitarbeiter am Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften (ÖAW).
Nadine Kleine und Karsten Weber
Steve Mann, der seit den späten 1970er Jahren an Wearables arbeitet, definiert diese als „a new form of human-computer interaction comprising a small body-worn computer system that is always on and always ready and accessible.“ Die Definition von Thad Starner sieht Wearables als „any body-worn computer that is designed to provide useful services while the user is performing other tasks.“ Als wichtigste Funktionen können Tracking, Monitoring, Communication und Augmentation unterschieden werden.
Derzeit wird intensiv diskutiert Wearables insbesondere im Gesundheitsbereich einzusetzen, wobei vor allem die Funktionen Tracking (hier: Feststellen des Aufenthaltsortes, um im Notfall schnell Hilfe leisten zu können) und Monitoring (hier: Überwachung von Vitaldaten, um sich anbahnende Gesundheitsprobleme frühzeitig erkennen zu können) umgesetzt werden sollen. Diese Anwendung zeigt Überschneidungen zur professionellen Nutzung in der Telemedizin sowie zu Ambient Assisted Living bzw. zu altersgerechten Assistenzsystemen. Momentan werden Wearables vor allem als Werkzeuge des persönlichen Gesundheitsmonitorings beworben (bspw. Jawbone, Fitbit etc.). Eine erste private Krankenkasse plant Versicherungen, deren Tarife davon abhängig gemacht werden sollen, dass die Versicherten ihre Vitaldaten durch Wearables überwachen lassen. In der Arbeitswelt ergeben sich ebenfalls verschiedene Möglichkeiten, Wearable Computer einzusetzen, um die Effektivität und Effizienz von Arbeitsprozessen zu steigern. Dies umfasst die Organisation und Durchführung von Arbeitsprozessen, bspw. durch technische Augmentation des Arbeitsfeldes mit Zusatzinformationen. Das Monitoring von Arbeitsabläufen durch Dritte könnte als erweiterte Kontrolle bereits existente Schutzmaßnahmen verbessern.
Um die Möglichkeiten und Auswirkungen von Wearables am Arbeitsplatz und zur Unterstützung im Gesundheitsbereich zu eruieren, wurde in einer kleinen Studie ein Setting entwickelt, in dem Wearable-Technologien, die sich derzeit noch im Prototypenstadium befinden, kurz vor der Markteinführung stehen oder aber auch bereits genutzt werden, in das Leben einer fiktiven Person integriert sind. Auf Basis einer systematischen Auswertung der vorhandenen Literatur und mithilfe von Interviews wurden aus diesem Setting Trend-, Best Case- und Worst Case-Szenarien entwickelt. Dabei lag der Fokus auf der Frage, wie sich in den Szenarien entsprechende Technologien auf die Autonomie der fiktiven Person auswirken würden, um so Hinweise auf gesamtgesellschaftliche Auswirkungen gewinnen zu können. Die entwickelten Szenarien lassen es plausibel erscheinen, dass einige wenige Grundsatzentscheidungen bei der technischen Gestaltung und der gesetzlichen Regulierung bestimmen, ob Wearables vor allem die Interessen und den Nutzen der sie tragenden Personen befördern oder aber zu einem eher repressiven Instrument werden.
Wir möchten in dem vorgeschlagenen Beitrag zunächst die Technik der Wearables als Teil einer neuen smarten Welt im Grundsatz vorstellen, das untersuchte Setting vorstellen und dann die Ergebnisse der Szenario-Entwicklung skizzieren, um herauszuarbeiten, welche Grundsatzentscheidungen in den Szenarien, als plausible mögliche Zukünfte verstanden, als Kipppunkte Richtung Best Case- bzw. Worst Case-Szenario zu begreifen sind.
Nadine Kleine, M.A., arbeitet als Forschungsassistentin im Cluster „Ethik, Technikfolgenabschätzung und Nachhaltige Unternehmensführung“ (ETN) der OTH Regensburg.
Prof. Dr. Karsten Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der OTH Regensburg sowie Honorarprofessor für Kultur und Technik an der BTU Cottbus-Senftenberg.
Dennis Kirschsieper und Melike Şahinol
Informationelle Privatheit lässt sich als das Recht auf persönliche Geheimnisse begreifen bzw. als das Recht, selbst zu kontrollieren, wer welche Informationen – gegenwärtig vor allem: Daten – über die eigene Person erhält und wer nicht. Juristisch betrachtet handelt es sich um ein Schutzgut, das sich mosaikartig aus verschiedenen Einzelrechten und Gesetzen zusammensetzt. Soziologisch und kulturwissenschaftlich betrachtet, handelt es sich um einen kulturellen Wert, der auch durch nicht-juristische Normen (etwa durch die der Diskretion) abgesichert ist und sich in die Architektur und Körper eingeschrieben hat. Zwar muss jede moderne demokratische Gesellschaft eine allen Staatsbürgern zugängliche (politische) Öffentlichkeit und einen geschützten Bereich der Privatsphäre einrichten. Welche Informationen bzw. Daten dem Schutz der Privatsphäre unterliegen sollen bzw. als sensible Daten gelten, kann (und muss) jedoch laufend neu – in der Öffentlichkeit – verhandelt (und legitimiert) werden. Dabei zeigt sich, dass die Auffassungen darüber, was privat ist bzw. sein soll, zwischen den Rechtssystemen verschiedener Staaten und unterschiedlichen (nationalen) Kulturen variieren; und sich möglicherweise in unterschiedliche Richtungen entwickeln.
In unserem Beitrag untersuchen wir vergleichend die Privatheitskultur in Deutschland und in der Türkei. Als Beispiel wählen wir den Bereich Medizin. Denn Gesundheitsinformationen gelten – u.a. wegen ihres Körperbezugs – traditionell und weitgehend kulturübergreifend als besonders „intim“. Wir fokussieren Gesundheits-Apps. Bei manchen dieser Apps werden persönliche Daten in großem Umfang gesammelt und ausgewertet. Dabei besteht nicht nur das Risiko, dass diese Daten an Empfänger gelangen, die sie eigentlich nicht erhalten sollten. Es besteht zudem das Risiko, dass die Empfänger dieser Daten und/oder die Apps selbst die private Lebensführung des Nutzers auf Basis der gesammelten privaten Informationen kommentieren und bewerten und so die Autonomie des Nutzers einschränken. Bedroht ist also nicht nur die informationelle Privatheit, sondern – damit zusammenhängend – auch die dezisionale Privatheit, also das Recht, selbstbestimmt Entscheidungen zu treffen, ohne dass jemand anderes oder der Staat unerwünscht „hineinredet“.
Der Fall Türkei ist u.a. deshalb besonders interessant, da seit Mai 2015 eine staatliche – vom türkischen Gesundheitsministerium entwickelte – Gesundheits-App im Einsatz ist: „e-Nabiz“. Es handelt sich um eine individuelle App, die verschiedene Vitalparameter misst und Gesundheitsdaten speichert. Mit ihr kann man Krankenhaustermine organisieren oder etwa den Organspendestatus bestimmen. Sie ist u.a. an das Blutspende- und das Ambulanzsystem gekoppelt. An ihr zeigt sich auch ein Trend zur Digitalisierung der medizinischen Behandlung selbst. So können z.B. bei allergischen Reaktionen der Haut Fotos aufgenommen und direkt über das System an einen Arzt weitergeleitet werden. Nach Informationen des türkischen Gesundheitsministeriums sind seit Oktober 2015 über zwei Millionen Nutzer registriert. Erstaunlicherweise berichten türkische Medien keinesfalls kritisch, sondern eher informativ und technikbejahend über e-Nabiz.
Zwar sind auch in Deutschland viele Gesundheits-Apps im Einsatz, was von manchen Krankenkassen auch gezielt durch Anreize befördert wird. So bekommen diejenigen, die ihre Daten zur Verfügung stellen und ein Verhalten an den Tag legen, das gemäß der Datenauswertung durch die Krankenkasse als „gesund“ eingestuft wird, eine tarifliche Vergünstigung. In Deutschland werden diese Entwicklungen öffentlich jedoch sehr viel kritischer diskutiert – ersichtlich z.B. auch an der heftigen Diskussion über die Einführung der elektronischen Gesundheitskarte in Deutschland. Unsere These zur Erklärung dieses Befundes lautet, dass in den beiden Ländern aufgrund unterschiedlicher historischer Vergangenheiten unterschiedliche Zukunftsvisionen/-szenarien dominieren: der „gläserne Mensch/Patient“ im „totalitären Überwachungs- und Kontrollstaat“ (Deutschland) einerseits und der gesunde Mensch in einer durch Technik optimierten Welt andererseits (Türkei). In Deutschland hat sich der Wert der Gesundheit dem Wert des Privaten (im informationellen und dezisionalen Sinne) gleichsam unterzuordnen. In der Türkei herrscht hingegen eine optimistische, technikfreundliche Kultur vor, die vergleichsweise wenig den Verlust des Privaten fürchtet. Wir plausibilisieren unseren Befund und unsere Deutungen durch eine diskurstheoretische Medienanalyse.
Dipl.-Soz.-Wiss. Dennis Kirschsieper studierte Soziologie, Philosophie und Psychologie an der Universität Duisburg-Essen und ist dort seit 2012 wissenschaftlicher Mitarbeiter. Seine Forschungsschwerpunkte sind Gesellschaftstheorie, Soziologie der Zeit und Human-Animal Studies. Ziel seines Promotionsvorhabens ist es, die Genese und den Wandel des Privaten gesellschaftstheoretisch zu beschreiben und zu erklären.
Dr. Melike Şahinol, Orient-Institut Istanbul, ist promovierte Sozialwissenschaftlerin. Ihre Forschungsschwerpunkte liegen im Bereich Science and Technology Studies, Technik- und Medizinsoziologie, wobei ihr besonderes Forschungsinteresse der Entwicklung und dem Einsatz neuerer medizintechnischer Verfahren und ihren Folgen gilt. Außerdem befasst sich Melike Şahinol mit der Bio(technologie)politik in der Türkei, insbesondere im Bereich der Reproduktionsmedizin. Hierzu wird von ihr zurzeit ein Forschungsvorhaben entwickelt, das Prozesse der ‚Entgrenzung der Medizin‘ im interkulturellen Vergleich untersucht.
Jaro Krieger-Lamina und Michael Nentwich
In Zukunft erwarten wir das Aufkommen und eine zunehmende Verbreitung von autonomen Fahrzeugen. Flugzeuge sind schon lange mit dem sprichwörtlichen Autopiloten unterwegs und auch so manche U-Bahn fährt führerlos. Zivile Drohnen könnten bald folgen, wenn die Geschäftsideen von Amazon und manchen Paketdienstleistern realisiert werden. Google baut und testet bereits mit einigem Erfolg Roboterautos, und auch die großen Automobilfirmen entwickeln konsequent die immer smarteren Assistenzsysteme weiter, sodass am Ende der/die Fahrer/in kaum oder gar nicht mehr eingreifen wird müssen. Geplant sind dann etwa selbstfahrende Taxis im Stadtverkehr und Lkws auf den Autobahnen. Selbst für die Weltmeere und Flüsse werden Containerschiffe ohne Besatzung zur Serienreife entwickelt, die nur mehr in Hafennähe und in heiklen Situationen von einem Kapitän von Land aus ferngesteuert werden.
Auch wenn vieles technisch noch nicht gelöst scheint, bald wird es prinzipiell möglich sein, Fahrzeuge teilweise oder ganz autonom auf die Reise zu schicken. Um tatsächlich autonom agieren zu können, werden diese Fahrzeugsysteme in der Regel Sensordaten mit einem ständigen Datenstrom zur genauen Positionierung (GPS), sowie Umweltfaktoren und Kommunikationsdaten kombinieren. Diese Abhängigkeit von Daten und deren Interpretation ist das Kernstück und stellt zugleich die große Herausforderung dar. Die erwarteten Vorteile dieser Visionen sind mannigfach und reichen von der Senkung des Unfallrisikos durch das Ausschalten des Faktors Mensch über Effizienzsteigerung sowie Ressourcenschonung und damit Umweltentlastung durch optimalen Energie- und Zeiteinsatz bis zur Erschließung neuer Märkte und zum Einsparen von Arbeitskräften.
Dem stehen jedoch auch eine Reihe ungelöster gesellschaftlicher Fragen gegenüber. Diese reichen von der zunehmenden Abhängigkeit von IT und Vernetzung sowie den damit verbundenen IT-Sicherheitsproblemen (Krauß et al. 2015) und der Gefahr des Datenmissbrauchs über rechtliche und Haftungsfragen bis zu gravierenden ethischen Dilemmata, wenn es um algorithmische Entscheidungen über Menschenleben geht. Hier sind neuartige Entscheidungen zu treffen, die selbst von menschlichen PilotInnen bislang bestenfalls unbewusst getroffen werden.
Die Technikfolgenabschätzung hat sich dieses Themas in den letzten Jahren bereits ein wenig angenommen. Die britische und die französische TA-Einrichtung haben jeweils den zivilen Einsatz von Drohnen in den Blick genommen (POST 2014; OPECST 2014). Im EU-Projekt DESSI wurde als Fallbeispiel auch die Verwendung von Drohnen im Rettungseinsatz analysiert (DESSI 2013). In der Schweiz begannen soeben Projekte zu zivilen Drohnen (u.a. TA-Swiss 2016), am ITAS läuft zum autonomen Fahren eine Dissertation, am ITA seit Anfang 2016 eine Kurzstudie dazu; siehe auch das ITA-Dossier zu zivilen Drohnen (ITA 2014). Grunwald hat an einer umfassenden Studie zum Autonomen Fahren der Daimler & Benz-Stiftung mitgewirkt (Maurer et al. 2015). Zu autonomen Containerschiffen wurden unseres Wissens noch keine TA-Studien durchgeführt.
In unserem Vortrag werden zunächst kurz der Status Quo und die aktuellen Entwicklungspfade aufgezeigt. Ein zentraler Punkt ist weiters, in welchen Bereichen derzeit und zukünftig Autonomie möglich ist, was unter Autonomie verstanden wird und welche Spielarten es gibt bzw. geben könnte. Danach werden wird anhand dreier kurzer Beispiele zu autonomen Kfz, zu Lieferdrohnen und zu führerlosen Containerschiffen auf die spezifischen Fragen, die sich aus der (Teil-)Autonomie dieser Fahrzeuge ergeben, fokussieren. Der Vergleich von Land-, Luft- und Wasserfahrzeugen ergibt eine Reihe von Gemeinsamkeiten, aber auch spezifischen Fragestellungen. Wir werden insbesondere jene Aspekte näher beleuchten, wo unserer Ansicht nach ein transparenter gesellschaftlicher Diskurs geführt werden sollte, bevor diese neuen Technologiesysteme breit angewendet werden.
Literatur:
DESSI. 2013. Test case report Security and Safety in Search and Rescue Operations. Decision Support on Security Investment deliverable 5.3. Oslo.
Edelmann/Zimmer. 2014. TA perspectives on autonomous driving. TA and an 'old' new vision of mobility, 6.-7.11., Universität Paderborn.
ITA. 2014. Drohnen – fliegende Alleskönner? ITA-Dossier Nr. 6, Wien. epub.oeaw.ac.at/ita/ita-dossiers/ita-dossier006.pdf.
Krauß, Christoph, Waidner, Michael. 2015. IT-Sicherheit und Datenschutz im vernetzten Fahrzeug. In: Datenschutz und Datensicherheit (DuD) 6/2015, S. Springer Gabler: Wiesbaden.
Maurer et al. (Hrsg.). 2015. Autonomes Fahren – Technische, rechtliche und gesellschaftliche Aspekte. Springer Vieweg: Heidelberg. link.springer.com/book/10.1007%2F978-3-662-45854-9.
OPECST. 2014. Les Drones et la Sécurité des Installations Nucléaires - Audition Publique. Paris. assemblee-nationale.fr/14/cr-oecst/programme_AP_drones.pdf.
POST. 2014. Civilian Drones. POST-Note Nr. 479, London. researchbriefings.parliament.uk/ResearchBriefing/Summary/POST-PN-479. TA-Swiss. 2016. Zivile Drohnen, eine zukunftsweisende Technologie? Herausforderungen und Perspektiven. ta-swiss.ch/projekte/projekt-ausschreibungen/.
Jaro Krieger-Lamina studierte Informationssicherheitsmanagement und ist langjähriger Projektmitarbeiter am Institut für Technikfolgen-Abschätzung (ITA) Wien. Sein Schwerpunkt liegt auf IKT, Sicherheitstechnologien und Fragen der Privatsphäre.
Michael Nentwich ist Jurist, Wissenschafts- und Technikforscher und seit 2006 Direktor des ITA. Sein Forschungsschwerpunkt liegt ebenfalls im Bereich IKT mit einem Schwerpunkt auf den Auswirkungen des Internets auf die Wissenschaft.
Claus Seibt
Der Begriff Smart Cities soll in diesem Beitrag mit Blick auf seine verschiedenen Orientierungen diskutiert und kritisch reflektiert werden. So entstand der Begriff zwar zunächst mit Blick auf die Anwendung und Nutzung digitaler Technologien in der Stadt, wurde aber schnell zu Sammelbegriff oder auch zum Dachkonzept zur Zusammenführung verschiedener möglicher Trends für Sadtentwicklung und Stadterneuerung, wie z.B. Entwicklungen zur Nachhaltigen (Sustainable City) oder Grünen Stadt (Green City), neuerdigs auch zur emissionsarmen Stadt (low carbon city) und der Stadt in der Kreis-laufwirtschaft (circular-economy city). Die Stadt Wien hat in den vergangenen Jahren sehr erfolgreich auch die „soziale Stadt“ in die smart city Debatte als Narrativ eingeführt. Dieses Narrativ wird im internationalen Kontext inzwischen sogar als Wiener Weg der Smart City propagiert. Nahezu jede Stadt, die sich als Smart City engagiert, präsentiert inzwischen ihr eigenes Entwicklungsnarrativ.
Smart City Narrative sind vielfältig und facettenreich. Meistens greifen sie bereits vorhandene stadtpolitische Agenden undKonzepte auf und schließen an bestehende städtische „Kultur und Geschmackslandschaften“ an. Im Vordergrund steht die digitale Stadt, d.h. die „Digitalisierung aller Lebensbereich“ in der Stadt und im städtischem Umland. Hinsichtlich der Menschenbilder in verschiedenen Smart City Vorstellungen und Projektionen gibt es deutliche Unterschiede. In den Narrativen lassen sich verschiedene Typen und Menchenbilder ausmachen und beschreiben.
In diesem Beitrag sollen zunächst Vorstellungen und Bilder der verschiedenen und „vielen bunten Smarties“ in der „Morgenstadt“ vorgestellt werden. Wo kommen die Vorstellungen her, was daran ist wirklich, was bleibt Versprechen und Utopie? Wo werden gerade in der Stadt die Grenzen der Digitalisierung am deutlichsten sichtbar? Welche Wirkungen und unbeabsichtigten Nebenfolgen lassen sich bereits heute erkennen? Diesen Fragen möchte der Beitrag nachgehen.
Claus Seibt ist derzeit Projektleiter in der Forschungsgruppe Energie, Verkehrs- und Klimapolitik im Wuppertal Institut.
Er studierte Energie- und Verkehrstechnik, Umwelt- und Systemwissenschaften und anschließend Politik- und Sozialwissenschaften. Seine beruflichen Stationen lagen in Deutschland am Institut für Technikfolgenabschätzung (ITAS) in Karlsruhe, in Österreich in Seibersdorf und später im Austrian Institute of Technology (AIT) und in AustriaTech in Wien.
Er hat langjährige Erfahrung in der wissenschaftlichen Politikberatung und war von 2007-2009 als österreichischer nationaler Sachverständiger in der Europäischen Kommission.
Karsten Weber, Frank Pallas, Max-R. Ulbricht
Participatory Sensing ist die Idee der „Einbeziehung von Bürgern und Gemeinschaften in den Prozess des Erfassens und Dokumentierens“ von Umgebungsbedingungen. Ein Beispiel ist das Oxford Flood Network zur partizipativen Erfassung von Pegelständen der Flüsse Themse und Cherwell mit dem Ziel, Überflutungen auf Basis vergleichsweise hochaufgelöster Daten besser als bislang begegnen zu können. Das Projekt AirQualityEgg wiederum dient der partizipativen Erfassung von Luftgüteparametern wie Stickstoffdioxid-, Kohlenstoffmonoxid- oder Feinstaubgehalt. In beiden Fällen werden Sensoren samt Verarbeitungs- und Übermittlungseinheiten von interessierten Teilnehmern an geeigneten Positionen installiert und betrieben.
Sollte sich der partizipative Betrieb von Pegelstandsensoren in der Breite durchsetzen, erscheint es plausibel, dass die Daten von innovativen Unternehmen z.B. in Internet-Dienste zur Berechnung von Überflutungswahrscheinlichkeiten einbezogen werden. Werden derartige Dienste nun von Versicherungen genutzt, um individuelle Risikoprämien zu berechnen oder gar in Verwaltungsentscheidungen (wie etwa zur Ausweisung bestimmter Flächen als Bauerwartungsland oder zur Tätigung öffentlicher Investitionen) einfließen, dann würden sich rasch Fragen nach der Validität solcher Entscheidungen und damit nach der grundsätzlichen Akzeptabilität entsprechender Nutzungsmuster stellen.
Ähnliches lässt sich in Bezug auf AirQualityEgg sagen. Darauf aufbauend erscheint es naheliegend, einen Dienst zur hochauflösenden Bestimmung lokaler Luftgüteindizes zu realisieren, wie er derzeit – deutlich gröber aufgelöst – auf Basis von durch die öffentliche Hand vorgenommenen Messungen existiert. So könnten Auflösungen und Genauigkeiten erzielt werden, die sich im klassischen Modell staatlicher Luftgütemessungen schon aufgrund finanzieller Hürden kaum erreichen lassen werden. Nun ist zu fragen, wie mit der Integration eines solchen Luftgüteindex – womöglich unter Einbeziehung ähnlicher Dienste zur Repräsentation von Verkehrsaufkommen und Umgebungslärm – als zusätzliches Informationsangebot in einem Immobilienportal oder gar mit dessen Heranziehung bei der Bestimmung von Referenzmieten umzugehen wäre; neben einem gesondert ausgewiesenen „Wohnwertindex“ ließe sich bspw. an die automatisierte Validierung von Angaben wie „ruhige Wohnlage“ denken.
Solche Szenarien lassen das Potenzial des Participatory Sensing deutlich werden, das die schnelle Entwicklung unterschiedlichster datengetriebener Dienste und Anwendungen ermöglicht, die in Bezug auf die zur Verfügung stehende Menge und Detaillierung von Sensordaten einen gesellschaftlichen Mehrwert bieten, der sich mit anderen Mitteln kaum erreichen ließe. Dabei kommt den solchen Diensten – potenziell auch über mehrere Integrationsstufen hinweg – zugrunde liegenden Daten eine besondere Bedeutung zu, sobald die entsprechenden Dienste und Anwendungen in Prozesse von gesellschaftlicher Relevanz einfließen. Das bislang vor allem positiv konnotierte Prinzip der partizipativen und mit möglichst geringen Einstiegshürden verbundenen Einbindung möglichst vieler individueller und korporativer Akteure wird zu einem Risiko, weil die Korrektheit der Daten nicht ausreichend gewährleistet ist und mit Etablierung entsprechender Dienste offensichtlich Anreize zur Bereitstellung absichtlich verfälschter Sensordaten bestehen.
Technisch ausgedrückt steht infrage, wie gegenüber den Sensordatennutzern eine bestimmte Quality of Service (QoS) garantiert werden kann. So formuliert ist eine technische Antwort naheliegend: Denkbar wäre bspw., dass Daten nur von Sensoren akzeptiert werden, die mit entsprechenden Maßnahmen sicherstellen können, dass die gemessenen Daten auf dem Übertragungsweg nicht verfälscht werden können. Die Tragfähigkeit technischer Lösungen muss jedoch bezweifelt werden, da sie schwierig zu erzwingen und zudem leicht zu umgehen wären; es sind zahlreiche, oftmals sehr einfach zu realisierende, Angriffsszenarien am Sensor selbst vorstellbar, die entsprechende Sicherungsmechanismen aushebeln. Daher müssten Signalisierungsmöglichkeiten für Vertrauen und Vertrauenswürdigkeit entwickelt werden, welche auf ähnlichen Strukturen aufbauen könnten, wie sie sich bspw. in der Open Source-Szene oder allgemeiner in der Commons-Based Peer Production bzw. in der Verwaltung von Allmendegütern etabliert haben, um etwas, das man als „soziale Sensorvalidierung“ bezeichnen könnte, zu konstituieren.
Das wirft Probleme zweiter Ordnung auf, bedeutet Ressourcenaufwand und könnte daher die Bereitschaft zur Bereitstellung entsprechender Technik mindern, doch ohne solche Regulierungsmechanismen „jenseits von Markt und Staat“ werden solche Dienste langfristig nicht funktionieren können und vermutlich auch keine Akzeptanz gewinnen.
Wir möchten in dem Beitrag zunächst anhand der schon genannten Beispiele das Potenzial von Participatory Sensing für zivilgesellschaftliches Engagement und Citizen Science aufzeigen, um dann mögliche Missbrauchsszenarien zu skizzieren, die verdeutlichen, dass Participatory Sensing (ebenso wie Open Data) erhebliche Validitätsprobleme mit sich bringen kann, die dessen Wert für die smarte neue Welt erheblich infrage stellen können. Zum Schluss möchten wir einige Lösungsvorschläge und deren Grenzen aufzeigen.
Prof. Dr. Karsten Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der OTH Regensburg sowie Honorarprofessor für Kultur und Technik an der BTU Cottbus-Senftenberg.
Dr. Frank Pallas und Dipl.-Inf. Max-R. Ulbricht sind wissenschaftliche Mitarbeiter am Fachgebiet Information Systems Engineering der TU Berlin.
Stefan Strauß, ITA
Abseits ihrer mythischen Bedeutung ist die Schaffung Künstlicher Intelligenz (KI) seit Jahrzehnten eine Vision der Technikentwicklung. Als Subdisziplin der Informatik bzw. Computerwissenschaft befasst sich KI im klassischen Sinne mit der Erforschung und Entwicklung intelligenter Maschinen (McCarthy 1955). Ein allgemeines Ziel von KI ist es, mithilfe von Computertechnologie als Experimentierfeld, die Natur intelligenter Denkvorgänge und Handlungsweisen zu verstehen (vgl. Buchanan 2005). Zur Erreichung dieses ambitionierten Ziels spielt (auch heute noch) der sogenannte Turing Test eine wichtige Rolle im Bereich KI für maschinelles Lernen. Dieser von Alan Turing entwickelte Ansatz bezweckt nicht zu explorieren, ob Computer denkfähig sind oder nicht sondern primär ob sich eine Maschine ähnlich verhalten kann wie ein Mensch (Turing 1950). Internet-NutzerInnen sehen sich teils mit Spielarten des Turing-Tests konfrontiert: sogenannte Captchas lassen sich etwa als umgekehrter Test verstehen, bei dem zur Bekämpfung von Spam Menschen Maschinen beweisen müssen, selbst keine Maschinen zu sein... Wie im Beitrag verdeutlicht wird, ist nicht immer eindeutig feststellbar, ob Mensch oder Maschine dem Turing-Test unterzogen wird. Diese Unsicherheit bezüglich der Intention von Machine-Learning Ansätzen bringt eine Reihe von gesellschaftlichen Implikationen mit sich, die sich vor dem Hintergrund einer technik-induziert „smarter“ werdenden Gesellschaft verschärfen können. Die hohe Relevanz von maschinellem Lernen zeigt sich nicht zuletzt in der raschen Zunahme an (quasi-)autonomen Systemen und „smarten“ Technologien die große Datenmengen verarbeiten, um Abläufe zum Teil oder gänzlich zu automatisieren. Das breite Anwendungsspektrum reicht von Suchalgorithmen, Mustererkennung, autonomen Fahrzeugen und Drohnen bis hin zu einer bunten Vielfalt von Diensten des Internet of Things. Insofern besteht eine Art natürliches Naheverhältnis zwischen KI und einem neuen Datenpragmatismus rund um Big Data (vgl. Strauß 2015). Dieser Beitrag befasst sich kritisch mit diesem Naheverhältnis und beleuchtet, inwieweit es sich hierbei um einen neuartigen Techno-Determinismus handelt, bei dem die ursprüngliche Vision intelligenter Maschinen von quasi-autonomen Algorithmen abgelöst wird. Anhand einiger Beispiele werden gesellschaftliche Folgen dieser Entwicklung und ethische Spannungsfelder veranschaulicht und kritisch hinterfragt, inwieweit smarte/intelligente Technologien, die menschliches Verhalten analysieren und imitieren, gesellschaftlich tragfähig sind.
Stefan Strauß ist wissenschaftlicher Mitarbeiter am Institut für Technikfolgen-Abschätzung (ITA) der ÖAW. Er ist ursprünglich Wirtschaftsinformatiker und hat neben seiner Forschungstätigkeit auch Erfahrung in der Softwareentwicklung sowie IKT-geleiteten Partizipationsprozessen. Am ITA befasst er sich mit gesellschaftlichen Auswirkungen von Informations- und Kommunikationstechnologien, insbesondere E-Governance und politische Prozesse, Identitätsmanagement, Überwachung und Schutz der Privatsphäre. Weitere Forschungsinteressen liegen im Feld der Informations- und Computerethik. Mitarbeit in einigen internationalen Forschungsprojekten, u.a. zu elektronischer Demokratie, digitaler Identität, Cloud Computing und Social Networks; Sicherheit und Privatsphäre, Schutz kritischer Infrastrukturen. Aktuelle Publikationen u.a. zu den gesellschaftlichen Folgen von Big Data.
Frank Heidmann & Anouk Meissner
Smarte Technologien erfordern neue, smarte Benutzungsschnittstellen. Ob die sichere Gestaltung des Wechselspiels zwischen Aktivitäts- und Passivitätsphasen beim (teil)autonomen Fahren, Multi-Device User Interfaces (UI) für komplexe Mehrpersonen-Nutzungsszenarien für die Steuerung von Smart Home Technologien oder User Interfaces für Self-Tracking Apps, die kritische Belastungszustände beim Fitnesstraining automatisch erkennen und gegebenenfalls unmittelbar an eine medizinische Notfallzentrale melden, Interaction DesignerInnen stehen vor der Herausforderung, die Interaktion zwischen Mensch und Technik neu zu denken. Notwendig sind Interaktionsformen, die eine angemessene Balance zwischen Automatisierung bzw. systeminitiierter Adaption von Interaktionen und Visualisierungen sowie nutzerinitiierten Aktionen ermöglichen und gleichzeitig Transparenz über Systemzustände und Interaktionen mit dem System sicherstellen, ohne den Nutzer durch permanente Statusmeldungen zu überfordern. Das Spektrum neuer Lösungen reicht dabei von Smart Clothes, die durch haptische Interaktionsformen Systemzustände zum Ausdruck bringen, über eine Vielzahl neuer Augmented- und Mixed Reality Devices bis hin zu akustischen und olfaktorischen Interfaces, die über die Ansprache aller Sinne, eine Überforderung – z.B. des visuellen Kanals – des Nutzers entgegenwirken.
Ziel des Beitrages ist die Vorstellung konkreter User Interface Design Projekte aus den Bereichen (teil)autonomes Fahren, Smart Home, Smart City und Self-Tracking, die sich alle mit der Frage angemessener „Smartness“ beschäftigen und für die Potentiale und Risiken aus heutiger und zukünftiger Perspektive diskutiert werden. DesignerInnen arbeiten dabei an der Schnittstelle zwischen technologischer Entwicklung und Machbarkeit sowie den Wünschen, Bedürfnissen und Ängsten der NutzerInnen smarter Technologien. Vorgestellt werden moderne Co-Design Methoden zur kontinuierlichen Integration zukünftiger NutzerInnen in den Designprozess. Nur so kann der Gefahr einer technikzentrierten Entwicklung smarter Mensch-Technik-Schnittstellen entgegengewirkt werden. Die viel zitierte Smartness neuer Applikationen, Services und Ökosysteme aus dem Silicon Valley und anderen Hochtechnologienzentren wird einer kritischen Analyse hinsichtlich der Sinnhaftigkeit aus sozioökonomischer und nachhaltiger Perspektive unterzogen. Der Beitrag zeigt zusammengefasst, welche Forschungsfragen zurzeit in der Mensch-Technik-Interaktion und im Interaction Design im Kontext von Automatisierung, Adaption und Transparenz, Privatsphäre und Sicherheit diskutiert werden, mit welchem Methodeninventar insbesondere DesignerInnen den dabei zum Vorschein kommenden Herausforderungen begegnen und wie eine menschenzentrierte Smartness von Mensch-Technik-Schnittstellen zukünftig aussehen und sichergestellt werden kann.
Frank Heidmann, Prof. Dr., ist Professor für »Design of Software Interfaces« und Leiter des »Interaction Design Lab« an der Fachhochschule Potsdam. Seine Interessensgebiete umfassen die Gestaltung und Evaluation von Mensch-Technik-Schnittstellen, die Visualisierung raumbezogener Daten (Geovisualisierung), Smart Cities und Green IT/Sustainable Design.
Anouk Meissner, M.A., ist wissenschaftliche Mitarbeiterin am Fachbereich Design der Fachhochschule Potsdam. Sie ist mit der strategischen Weiterentwicklung der Designstudiengänge (B.A./M.A.) befasst und betreut das Masterprogramm. Ihre Forschungsinteressen liegen in der Methodenentwicklung und dem Methodeneinsatz in der Designforschung.
Sebastian Sünkler
Der Absatz von Smartphones ist in den letzten Jahren rasant angestiegen; mit der Verbreitung der Geräte ist gleichzeitig auch eine Vielzahl von Anwendungsmöglichkeiten aufgekommen, die das alltägliche Leben des Nutzers vereinfachen sollen. Eine dieser Anwendungen ist die Sprachsteuerung als alternative Schnittstelle. Über die Sprachsteuerung können Nutzer beispielsweise Anrufe aufbauen, Textnachrichten verfassen, Apps öffnen oder Websuchen durchführen. Die Nutzung von Sprachsteuerung wird bei den Smartphone-Besitzern immer beliebter. Aktuelle Studien zeigen, dass jeder zweite Deutsche die Sprachsteuerung (Bitkom, 2016) nutzt und in den USA knapp 40% der Besitzer auf die Eingabe von Befehlen per Sprache zurückgreifen (Parks Associates, 2016). Sprachsteuerung auf Smartphones wird dabei überwiegend im privaten Rahmen, zum Beispiel beim Kochen, im Badezimmer oder während des Fernsehens genutzt. Junge Erwachsene greifen auch vermehrt darauf zurück, während sie mit Freunden zusammen sind (Google, 2014). In der Öffentlichkeit, zumindest im deutschen Raum, ist die Bedienung per Sprache dagegen bislang noch selten zu sehen.
Bekannte Hersteller von Systemen zur Sprachsteuerung von Smartphones sind Google, Apple und Microsoft, die die Sprachsteuerungen als Teil der Personal Assistants ihrer Betriebssysteme implementiert haben. Google Now, Apple Siri und Microsoft Cortana sind persönliche Assistenten, die das Lebens ihrer Benutzer optimieren und vereinfachen sollen. Damit die Systeme diese Ziele erreichen können, brauchen sie Zugriff auf die persönlichen Informationen und Vorlieben, auf den Standort des Geräts und auf das Nutzungsverhalten des Anwenders, um daraus zu lernen, wie die Bedürfnisse zu verstehen und zu befriedigen sind. Die Personal Assistants erfassen diese Daten und werten sie systematisch für die Erstellung von Nutzungs- und Bewegungsprofilen aus. Neben den Chancen, die sich durch Personal Assistants für den Smartphone-Besitzer ergeben, beinhalten die Systeme aber auch kritische Aspekte auf mehreren Ebenen. Eine direkte Integration in das Betriebssystem führt zu einer „Zwangspersonalisierung“, die nur durch aktives Eingreifen angepasst bzw. ausgeschaltet werden kann. Kritische Fragen ergeben sich zudem bei der kommerziellen Verwertung der gesammelten Daten. Eine Transparenz bei der Datenauswertung und -verwertung durch die Betreiber ist nicht gegeben. Weiterhin führt die Personalisierung auch dazu, dass der Nutzer in die so genannte Filterblase (Pariser, 2011) gerät und nur noch für ihn optimierte Suchergebnisse erhält, die mit den bisherigen Ansichten des Benutzers übereinstimmen. Zusätzlich wird durch Personalisierung eine Unterstützung angeboten, die nicht aktiv durch den Nutzer angefordert wird. Beispiele dafür sind implizite Suchvorgänge, die passende Suchergebnisse ausliefern, ohne dass eine Suchanfrage gestellt wurde. Risiken entstehen hierbei dadurch, dass Anbieter gezielt Werbung schalten können und Versuche unternehmen in die Autonomie des Nutzers einzugreifen. Davon abgesehen sind auch Kooperationen mit Werbetreibenden oder anderen Unternehmen mögliche Szenarien, die durch die Zusammenarbeit mit den Betreibern Zugriff auf die gesammelten Daten in den Profilen erhalten.
Zusammenfassend betrachtet sind Sprachsteuerung und die damit verbundenen Personal Assistants smarte Anwendungen, die als Alltagshelfer die Bindung des Smartphones an den Besitzer weiter verstärken und in ihrer Verbreitung stetig zunehmen. Dabei entstehen diskussionswürdige Aspekte in Bezug auf Transparenz des Nutzers, die kommerzielle Verwertung der Nutzerprofile und die Selbstbestimmung der Benutzer, die durch die passive, häufig unbewusste Unterstützung der persönlichen Assistenten tangiert wird und damit maßgeblichen Einfluss auf das Nutzerverhalten hat.
Literatur:
Bitkom. (2016). Sprachsteuerung setzt sich bei Smartphones durch. Retrieved February 24, 2016
Google. (2014). OMG! Mobile voice survey reveals teens love to talk. Retrieved February 24, 2016
Pariser, E. (2011). The Filter Bubble: What The Internet Is Hiding From You. London: Viking.
Parks Associates. (2016). Almost 40% of U.S. smartphone owners use voice recognition software.
Sebastian Sünkler, M.A., ist Wissenschaftlicher Mitarbeiter und Lehrbeauftragter am Department Information an der Hochschule für Angewandte Wissenschaften Hamburg. Er beschäftigt sich bereits seit seiner Studienzeit mit den Themen Suchmaschinen und Information Retrieval und arbeitet hauptsächlich in einem Forschungsprojekt zur automatisierten Kontrolle des Lebensmittelmarktes im Internet. Neben der Projektarbeit ist er Teil eines Forschungsteams in Hamburg, das sich mit der Evaluierung von Suchmaschinen, Trends in der Entwicklung von Suchmaschinen und gesellschaftlichen Fragestellungen im Kontext der Suche beschäftigt.
Carolin Kollewe
Assistive Technologien wie Ambient Assisted Living werden in Europa und Nordamerika häufig als ein Schritt zur Lösung der Herausforderungen des demografischem Wandels dargestellt und von politischen Institutionen deshalb stark gefördert. Aktuell werden diese Technologien in Deutschland zumeist in Praxistests in Haushalte alter Menschen eingeführt. Sie sollen dazu beitragen, dass alte Menschen länger „selbstbestimmt“ und „selbständig“ in ihren eigenen Wohnungen leben können. Bisherige Studien zu diesen assistiven Technologien für alte Menschen fragen zumeist nach technologischen oder psychosozialen Aspekten, nach ökonomischen Implikationen oder ethischen Herausforderungen. Allerdings wird weitgehend vernachlässigt, welche Rolle diesen Technologien bei der Organisation von Care zukommt, welche Bedeutungen alte Menschen, Pflegende und Angehörige diesen Technologien zuweisen und ob diese Technologien einen Einfluss auf die Gestaltung der sozialen Beziehungen der Beteiligten haben. Die präsentierte Studie der Universität Heidelberg geht diesen Fragen im Rahmen des Forschungsprojekts „Die Pflege der Dinge – Die Bedeutung von Objekten in Geschichte und gegenwärtiger Praxis der Pflege“ nach. Untersucht werden dazu verschiedene durch Sensoren erweiterte Hausnotrufsysteme mithilfe von teilnehmenden Beobachtungen und qualitativen Interviews (mit alten Menschen, careworkers und Angehörigen). Anhand dieses empirischen Materials geht der Vortrag der Frage nach, wie alte Menschen und careworkers „Selbstbestimmung“ und „Selbständigkeit“ unter Beteiligung eines sensorbasierten Hausnotrufsystems konzipieren. Der Beitrag zeigt die ambivalenten Bedeutungen auf, die alte Menschen diesen – in der Literatur häufig als „autonom“ titulierten – Technologien zuschreiben: Während einige Befragte betonen, dass sie ihr selbständiges und selbstbestimmtes Leben mithilfe dieser Technologien verlängern könnten, betrachten andere diese als Einschränkung ihrer Selbständigkeit und Selbstbestimmung und leisten Widerstand gegen die Installation eines solchen Systems in ihrer Wohnung. Anhand der erhobenen Daten und der Befunde zeigt der Vortrag auf, wie notwendig es ist, ein relationales Verständnis von Selbstbestimmung und Selbständigkeit zu entwickeln, das Selbstbestimmung und Selbständigkeit als einen Prozess versteht, der durch soziale Interdependenzen, soziostrukturelle Bedingungen und die räumlich-dingliche Umwelt geprägt ist.
Carolin Kollewe (Dr. phil.) ist Ethnologin und wissenschaftliche Mitarbeiterin am Institut für Gerontologie der Universität Heidelberg. Aktuell forscht sie im Rahmen des vom deutschen Bundesministerium für Bildung und Forschung geförderten Verbundprojekts „Pflegedinge“ zum Thema Pflege und Technik (http://www.pflegederdinge.de/). Weitere Schwerpunkte ihrer Forschungstätigkeit sind: Alter(n) im interkulturellen Vergleich, Museum und Objekte, Identitäten und soziale Bewegungen in Mexiko.
Mahshid Sotoudeh, Niklas Gudowsky, Ulrike Bechtold
Was verbirgt sich hinter AAL? Dieses Acronym steht für „Active Assisted Living“ – früher „Ambient Assisted Living“ – beides sind Begriffe, die von europäischen und nationalen Initiativen im Bereich Forschung und technische Entwicklung (FTE) geprägt wurden. Der gängige Fachdiskurs setzt hohe Verheißung in intelligente technische Hilfsmittel für eine älter werdende Gesellschaft. Aktuelle Zukunftsstudien zeigen Szenarios in denen Bedürfnisse älterer Menschen den Ausgangspunkt für die Entwicklung technischer Unterstützung älterer Menschen in den Bereichen Wohnen, Mobilität, Vitalität und medizinische Versorgung darstellt. Fachleute sehen hier für Staat, Wirtschaft und Zivilgesellschaft unterschiedliche Rollen, die durch derzeitige sozio-ökonomische Rahmenbedingungen nicht optimal aufeinander abgestimmt sind (Capari et al. 2015). BürgerInnen wünschen sich in ihren Zukunftsvisionen Unterstützung älterer Menschen durch smarte personalisierte technische Systeme, Integration und Inklusion aller Generationen in der Gesellschaft, Versorgungssicherheit für alle, sinnvolle und selbstbestimmte Tätigkeit im Alter, um u.a. ihren Ängsten vor sozialer Isolation, Armut oder Bevormundung im Alter entgegen zu wirken (Gudowsky, Sotoudeh 2015).
Diese aktuellen Zukunftsstudien am ITA zeigen, dass eine Pionierleistung seitens der Politik, Gesellschaft, Wirtschaft und Wissenschaft notwendig ist, um intelligente sozio-technische Systeme für ältere Menschen für ein selbstbestimmtes Leben im Alter zu gestalten. Gleichzeitig wirft eine vorausschauende TA viele offene Fragen auf und zeigt auf vorhandenen Kontroversen. Es ist eine frühzeitige umfassende Planung notwendig, um individuelle und gesellschaftliche Ebenen ausreichend zu berücksichtigen. Vereinzelte Disziplinen oder gesellschaftliche Akteursgruppen sind nicht in der Lage, die notwendigen Rahmenbedingungen zu erkennen, Erneuerungen zu konzipieren und die bedarfsgerechten Maßnahmen umzusetzen. Das ist nur im inter- und transdiziplinären Verbund möglich.
Grundlage für diese Session ist die Synthese mehrerer Zukunftsstudien zu diesem Thema im aktuellen DiaLogBuch AAL (Veröffentlichung Juni 2016). Dieses Buch bietet eine Zusammenschau der Thematik Technologie und älter werdende Gesellschaft auf breiter Basis in Österreich und leistet dadurch einen Beitrag zur AAL Debatte (Active & Assisted Living), u.a. für die interdisziplinäre Lehre.
Die inhaltliche Basis des Buches wurde mit mehreren Gruppeninterviews mit 30 Fachleuten zur Thematik Altern und Technologie gelegt.. Diese Gruppeninterviews wurden um die fünf Themenkomplexe herum organisiert, die auch die Kapitelstruktur vorgeben: Pflege und Technik, Innovation und Alter, Sozio-ökonomische Aspekte, Netzwerke und Know-how, Ethik. Die Podiumsdiskussion stellt eine Synthese aus den wichtigen Erkenntnissen des DiaLogbuchs AAL dar – hierbei haben wir den Fokus einerseits auf Synergien gerichtet, die im Rahmen der unterschiedlichen Perspektiven, die die Diskutierenden eingebracht haben, sichtbar wurden. Anderseits sind auch die Aspekte zentral, wo sich die Standpunkte und Einschätzungen der diskutierenden Experten und Expertinnen eindeutig unterscheiden.
FORMAT: Eingeladene ExpertInnen aus Wissenschaft, Wirtschaft, Gesundheit und Pflege, Zivilgesellschaft und Politik, die bei der Erstellung der Buchbeiträge mitgewirkt haben, stellen kurz die wichtigsten Erkenntnisse der einzelnen Themenbereiche dar, danach werden gemeinsame Querschnittsfragen diskutiert. Das Publikum wird laufend in die Diskussion eingebunden um einen interaktiven Dialog zu ermöglichen.
Impulsreferat der HerausgeberInnen und interaktive Diskussion der folgenden Hauptfragen zwischen Podium und Publikum:
•Wo liegen die wichtigsten Chancen und Herausforderungen von intelligenten sozio-technischen Systemen in Zukunft in der Unterstützung, Selbstständigkeit, Betreuung und Pflege älterer Menschen?
•Wo sind solche Technologien in der Lage, die Werte Selbstbestimmung und Autonomie der betroffenen Menschen zu unterstützen, und wo sind etwaige Grenzen solcher Technologien zu sehen?
•Ermöglicht der Einsatz von intelligenten sozio-technischen Systemen (z.B. AAL) eine ökonomische Entlastung für die Einzelnen und die Gesellschaft?
•Was ist die Rolle von Netzwerken in Zukunft in diesem Kontext?
•Und was kann TA hier leisten?