Abstracts

Die Abstracts der Beiträge zur TA13:


Keynotes:


Techno-Security: Kriegsführung, Wissensproduktion und Spektakel
Jutta Weber

Sicherheit ist ein zentraler und zugleich umkämpfter Wert moderner Gesellschaften, der aktuell primär technikzentriert interpretiert wird. In meinem Beitrag führe ich – im Anschluss an Mattelart – den Begriff der Techno-Security ein und interpretiere diese als Kultur und komplexe soziotechnische Praxis mit heterogenen Akteuren – von Algorithmen, Drohnen, Social Media bis zu Militärdoktrinen, Sicherheitskräften, oder Software-IngenieurInnen.
Ein Ansatz, der ‚Techno-Security‘ als Kultur begreift, ermöglicht es, die ‚Blackbox‘ der Technik zu öffnen und die ihr eingeschriebenen Werte und Normen, die Produktion von Bedeutungen und rhetorische Praktiken zu analysieren. Dies werde ich anhand einiger Beispiele von Techno-Security als Kriegsführung (RMA), Wissensproduktion und mediales Spektakel darstellen.


Die beste aller Welten – Zur Genesis technischer Sicherheitsstrategie
Sandro Gaycken

Sicherheitsstrategien orientieren sich heute wesentlich an technischen Möglichkeiten und Bedingungen. Technik determiniert Taktik in Funktion, Kosten und Nutzen. Taktik determiniert Strategie. Die Wahrnehmung, Verargumentierung und Implementierung technischer Möglichkeiten und Bedingungen sind allerdings nur zum Teil an funktionalen Fakten orientiert. Ein weit größerer Teil der Strategiefindung ist ein vielschichtiger und filigraner politischer Prozess. Der Vortrag wird diesen Prozess erläutern und auf wichtige Determinanten und Dynamiken hinweisen.



Parallel-Sessions I:


Smarte Diskriminierung? Zum Verhältnis von visueller Überwachung, (Un-)Sicherheiten und sozialer Gerechtigkeit
Christoph Musik

Videoüberwachung und deren Automatisierung, die Entwicklung von Bildverarbeitungsalgorithmen, werden immer wieder als „smarte“ Maßnahmen und Mittel dargestellt für mehr Sicherheit und Ordnung in der Gesellschaft zu sorgen. Dabei ist längst klar, dass es nicht nur um die Imagination eines Zuwachses an Sicherheit und Ordnung geht, sondern wirtschaftliche und innovationspolitische Interessen verstärkt in den Vordergrund getreten sind. Die technologiebasierte Sicherheits- und Überwachungsindustrie, insbesondere wenn diese in enger Verbindung zu den Schlüsselzukunftstechnologien im IKT Bereich steht, ist in der Dekade nach 9/11 zu einem wichtigen und mächtigen gesellschaftlichen Akteur geworden, welcher ähnlich dem Status von Finanzinstitutionen beinahe systemrelevant zu sein scheint.

Diese mächtige Stellung kaschiert allerdings eine entscheidende Frage: Führt der Einsatz von Sicherheits- und Überwachungstechnologien tatsächlich zu mehr Sicherheit und Ordnung? Gerade bei visuellen Überwachungsmethoden wie Videoüberwachung undderen Automatisierung scheint diese Frage kaum jemanden zu interessieren. So stellt z.B. Rothmann (2012) fest, dass im Falle von konventioneller Videoüberwachung bisher kein ausreichender wissenschaftlicher Nachweis erbracht wurde ob diese sicherheitstechnisch auch tatsächlich geeignet ist. Auch algorithmusbasierte Bildverarbeitung („intelligente“ Videoüberwachung oder „Smart CCTV“) befindet sich entgegen weit verbreiteter Annahmen, welche insbesondere auch von populärkulturellen TV-Serien wie ‚CSI’ oder ‚Person of Interest’ genährt werden, eher noch in einem frühen und unsicheren Entwicklungsstadium: Gesichtswiedererkennungsalgorithmen (face recognition) bleiben nach wie vor den Beweis schuldig, Gesichter akkurat erkennen zu können, insbesondere in nicht-standardisierten Szenarien im öffentlichen Raum. Und selbst hohe Erkennungsraten in laborbasierten technologischen Evaluationen müssen hinsichtlich der Testmethoden und Probanden, aber vor allem bezüglich der Eignung für ein Mehr an Sicherheit und Ordnung hinterfragt werden. Darüber hinaus hat sich gezeigt, dass Gesichtswiedererkennungsalgorithmen ebenso wenig neutral und objektiv sind (vgl. Introna & Wood 2004) wie z.B. menschliche Beobachter von Videoüberwachungsanlagen (Norris & Armstrong 1999). Die Algorithmen beinhalten systematische Verzerrungen: Für Männer, ältere Personen, Asiaten und Afro-Amerikaner lassen sich höhere Erkennungsraten finden wie für Frauen, Jüngere und Weiße (Introna & Wood 2004: 190). Die Konsequenzen von diesen dem Algorithmus inhärenten Verzerrungen können ein erhöhter Grad an Aufmerksamkeit und Durchsuchung und somit von Diskriminierung und sozialer Ungerechtigkeit sein. Introna & Wood sprechen von einer neuen Art von digitaler Spaltung (digital divide) (ebds.: 192) und plädieren für „bias studies“ (ebds.: 195). Auch der von David Lyon geprägte Begriff des „sozialen (Aus-)Sortierens“ (social sorting) deutet auf diesen Zusammenhang von automatisierter Klassifizierung und der Inklusion oder Exklusion von bestimmten Personen oder Personengruppen hin (Lyon 2003). De Vries spricht in Referenz zu Derrida (1992) von algorithmisch konstruierten ‚Shibolleths‘, welche an Stelle von Menschen entscheiden, welche Person einer bestimmten Gruppe oder Kategorie angehört (de Vries 2010). Sie fordert eine Diskussion über erwünschte und unerwünschte Formen von Diskriminierung durch Algorithmen. Eine Grundvoraussetzung für diesen Anspruch ist allerdings erst das Wissen über Verzerrungen und mögliche Diskriminierungen. Mögliche „bias studies“ sehen sich allerdings mit einer zunehmenden Kultur der Geheimhaltung (Monahan2010) konfrontiert. Kammerer sieht in diesem Zusammenhang fehlendes Wissen, Falschinformationen und Halbwissen als strategisch funktional eingesetzt an, um öffentliche Zustimmung herzustellen (Kammerer 2008: 83).

Verzerrungs-und Diskriminierungsstudien fehlen im Bereich von visueller Mustererkennung noch gänzlich. Dies liegt insbesondere an einem Mangel an öffentlich zugänglichen Daten und der fehlenden Bereitschaft für Auskünfte von Betreibern und Herstellern.

In meinem Vortrag werde ich ausgehend von den bereits ausgeführten theoretischen und konzeptuellen Überlegungen auf unterschiedliche empirische Beispiele aus dem Bereich automatisierter, bildverarbeitungsalgorithmischer Videoüberwachung eingehen. Dabei hat sich gezeigt, dass durch den Einsatz von „intelligenter“ Videoüberwachung in bestimmten Szenarien (z.B. Banken) sogar mehr Momente der Unsicherheit im Arbeitsalltag entstehen können, wenn die Auswertungsergebnisse oder Alarmmeldungen nicht von spezialisierten, gut ausgebildeten Fachkräften evaluiert werden. Denn die Ergebnisse von automatisierten Systemen sind immer von probabilistischer Natur und müssen in den situativen Kontext der Anwendung eingebettet werden. Eine klare Entscheidung, ob es sich um sicherheitskritisches Verhalten handelt ist dagegen nicht möglich.

Dies zeigt sich auch bei meinem zweiten Beispiel: Bei der sog. ‚Automatischen Vignettenkontrolle’(AVK), welche seit 2007 auf österreichischen Autobahnen im Einsatz ist, werden die Ergebnisse der automatisierten Bildverarbeitung offenbar immer von einem menschlichen Mitarbeiter im Kontrollzentrum der ASFINAG, dem Betreiberder Anlage, evaluiert. Dies scheint unbedingt notwendig, da je nach Einstellung der Parameter immer auch falsch-positiv Fälle vorkommen können, d.h. Personen mit gültiger Vignette würden fälschlicherweise als „Mautpreller“ eingestuft werden. Dies macht deutlich, dass ein „vollautomatisches“ System zu massiven sozialen Ungerechtigkeiten und Diskriminierungen führen würde. Doch auch mit manueller Nachkontrolle können Verzerrungen durch unterschiedliche Erkennungsraten der Algorithmen nicht gänzlich vermieden werden. In diesem Zusammenhang werde ich in meinem Vortrag auch auf die Informationspolitik der ASFINAG eingehen, welche mir nicht nur den Zugang für Beobachtungen, sondern sogar ein Interview zum Thema AVK ohne Angabe von Gründen verweigert hat. Eine Analyse von öffentlich zugänglichen Materialien (neben zwei parlamentarischen Anfragebeantwortungen insbesondere Printmedienartikel) hat zudem gezeigt, dass die AVK als ein funktionierendes, autonomes System dargestellt wird und mögliche Fehlerraten, Verzerrungen, falsch-positiv und falsch-negativ Raten, Wahrscheinlichkeiten und Unsicherheiten kein Thema der öffentlichen Berichterstattung und Diskussion sind. Die AVK wird vielmehr anhand ihres ökonomischen Erfolges bewertet: Exklusiv zur Verfügung gestellte Detektionszahlen und Umsatzzahlen stehen im Gegensatz zu einer fehlenden öffentlich zugänglichen soziotechnischen Evaluation der Maßnahme.

Abschließend plädiere ich in Relation zu meinen Erkenntnissen für eine stärkere soziotechnische Herangehensweise nicht nur im Bereich der Sicherheitsforschung: Für die Forschungsförderung bedeutet dies z.B., dass anstelle von technologiezentrierten Forschungsprojekten, welche sich auf die Entwicklung einer Technologie als vorgefertigte Lösung für ein vordefiniertes Problem konzentrieren, eher problemzentrierte Projekte gefördert werden sollen. Diese Projekte sollten ein offenes, interdisziplinäres Arbeiten bereits auf der Problemdefinitionsebene ermöglichen und könnten zu umfassenderen soziotechnischen Lösungen führen (vgl. Musik 2011). Die Technikfolgenabschätzung und verwandte Disziplinen könnten in diesem Vorhaben eine proaktive und damit leitende Position einnehmen.

Literatur:
Derrida, Jacques (1992): From ‘‘Shibboleth: For Paul Celan’’. In: Attridge, Derek (Ed.): Acts of literature. New York: Routledge, S.370-413.
De Vries, Katja (2010): Identity, profiling algorithms and a world of ambient intelligence. In: Ethics and Information Technology12/2010, S. 71-85.
Introna, Lucas D. & Wood, David (2004): Picturing Algorithmic Surveillance: The Politics of Facial Recognition Systems. In: Surveillance & Society 2 (2/3), S. 177-198.
Kammerer, Dietmar (2008): Bilder der Überwachung. Frankfurt am Main: Suhrkamp.
Lyon, David (2003): Surveillance as Social Sorting. Privacy, Risk, and Digital Discrimination. Abingdon.
Monahan, Torin (2010): Surveillance in the Time of Insecurity. New Brunswick, New Jersey, and London: Rutgers University Press.
Musik, Christoph (2011): The thinking eye is only half the story: High-level semantic video surveillance. In: Information Polity16/4, S. 339-353.
Norris, Clive & Armstrong, Garry (1999): The Maximum Surveillance Society: The Rise Of CCTV. Oxford.
Rothmann, Robert (2012): Zur Evaluation der Sicherheitstechnischen Eignung von Videoüberwachung. Regionale Defizite, internationale Standards, methodische Herausforderungen. In: juridikum, zeitschrift für kritik ǀ recht ǀ gesellschaft 4/2012, S. 481-493.


Sicherheit, Technik und Inklusion
Heidi Schäfer

Dieser Beitrag basiert auf Forschungsergebnissen des interdisziplinären Forschungsprojektes KRETA (Körperscanner: Reflexionen der Ethik auf Technik und Anwendungskontexte). Das Projekt wird vom deutschen Bundesministerium für Bildung und Forschung im Rahmen des zivilen Sicherheitsforschungsprogramms gefördert.

Sicherheitsmaßnahmen können gesellschaftliche Handlungs-und Entwicklungsräume eröffnen, schränken jedoch auch die Handlungs- und Bewegungsfreiheit von Personen ein. Neue Sicherheitsmaßnahmen werden meist im Spannungsverhältnis von Sicherheit und Freiheit oder Sicherheit und Privatheit diskutiert. Das Projekt KRETA möchte diesen Diskurs um das Gut der Gerechtigkeit erweitern.

Sicherheit hat ihren Preis, denn Sicherheitsmaßnahmen sind nie „kostenlos“. Daher muss geklärt werden, für wen Sicherheit hergestellt wird, wer die (nicht monetären) Kosten trägt und welche Menschen besonders betroffen sind (Gerechtigkeitsfragen). Diese Fragen stellen sich vor allem dort, wo Sicherheit durch den Einsatz von Technik hergestellt werden soll.

Sicherheitstechniken sollen Menschen vor widerrechtlichen Intentionen anderer Menschen schützen und folgen dabei der Logik von Einschluss und Ausschluss. Die meisten Sicherheitstechnologien (z.B. intelligente Videoüberwachung, Biometrie, Körperscanner) arbeiten dabei sehr Körperbezogen d.h. die Kriterien für den Ein- oder Ausschluss basieren auf physischen Merkmale (vgl.Van de Ploeg 2002, Ball 2006) und setzen einen „normalen“, statistisch gesehen durchschnittlichen Körper voraus.

Im ersten Teil des Beitrages wird der Einsatz von Körperscannern an Flughafen exemplarisch für andere körpernahe Sicherheitstechnologien diskutiert werden. Unter Einbeziehung von John McCarthy`s und Peter Wright`s Ansätzen zu „technology as experience“ (2004) sowie unter Berücksichtigung der Perspektive der Mensch-Maschine-Interaktion wird beleuchtet, welche Auswirkungen die Implementierung von Körperscannern und anderer Körpernahen Sicherheitstechnologien auf Menschen mit „ungewöhnlichen Körpern“ haben kann. Vor allem Menschen mit verdeckten Behinderungen, aber auch intersexuelle und transsexuelle Menschen sowie Personen bestimmter Religionszugehörigkeiten scheinen einen höheren Preis für die Herstellung von Sicherheit durch Körperscanner zu bezahlen, als der „normale“ Reisende.

Im zweiten Teil des Beitrags werden erste Ergebnisse eines Arbeitspakets vorgestellt, welches unter Zuhilfenahme verschiedener Methoden (Interviews, ethical impact assessment (vgl. Wright 2011), partizipativer Ansätze, Zusammenarbeit mit technischen Thz-Projekten, Forschungen am eigenen Körperscanner) reflektiert, ob der Einsatz von Körperscannern an Flughafen eine inkludierende, faire Sicherheitskontrolle gewährleisten kann und versucht, Kriterien zu entwickeln, die hierfür zugrunde gelegt werden können.

Abschließend soll darauf verwiesen werden, wie “Ethik als Partner der Technikgestaltung”(Nagenborg 2009) zu einer verantwortungsvollen Sicherheitsarchitektur beitragen kann, die Technikgestaltung als Gesellschaftsgestaltung wahrnimmt.

Literatur:
Ball, Kirstie (2006): Organization, surveillance, and the body: towards a politics of resistance. In: Lyon, David (ed.): Theorizing Surveillance, Cullompton and Portland: Willian, pp. 296-317
McCarthy, John/Wright, Peter (2004): Technology as experience. Cambridge: MIT Press
Nagenborg, Michael (2009): Ethik als Partner der Technikgestaltung. In: Matthias Maring: Verantwortung in Technik und Ökonomie; Karlsruhe: Universitätsverlag, S. 101-116
Van de Ploeg, I. (2002): Biometrics and the Body as Information: Normative Issues of the SocioTechnical Coding of the Body. In: D. Lyon (ed.): Surveillance as Social Sorting. London: Routledge, pp. 53-73
Wright, David (2011): A framework for the ethical impact assessment of information technology, in: Ethics and Information Technology 13, S. 199-226


Vom Hacker bis zum Produzenten kinderpornographischer Inhalte – Wer sind die TäterInnen im Netz? Herausforderungen an eine neue Rechts- und Kriminalsoziologie
Edith Huber

Die Komplexität der modernen Wissenschaft und ihrer mannigfaltigen sozialen Kontexte haben u. a. dazu geführt, dass die Telekommunikationsforschung und die mit ihr verwandten Forschungsbereiche unterschiedliche theoretische und empirische Zugänge entwickelt haben. Mit Ausweitung der Telekommunikationstechnologien hat sich das Kommunikationsverhalten der Menschen geändert. Damit einher hat sich auch der Missbrauch dieser Technologien ausgeweitet. Ein Bereich der daher immer häufiger den Alltag von Menschen konfrontiert, ist die Belästigung, die Bedrohung und kriminelles Handeln mittels Telekommunikationstechnologien.

Mit der fortscheitenden Telekommunikationsentwicklung der letzten 25 Jahre hat sich auch die Kriminalität verändert. Neue Verbrechensformen wie z. B. Datendiebstahl oder -fälschung, Nutzung kinderpornographischer Inhalte, Cyberstalking, Verletzungen des Urheberechtes u.s.w., werden immer häufiger. Die Zahlen der gemeldeten Verbrechen laut Kriminalstatistik Österreich 2012 (vgl. Bundesamt für Kriminalität, Wien, 2012) erkennen sogar eine Verdopplung der angezeigten Delikte. Mit dieser Entwicklung steht auch die Rechts- und Kriminalsoziologie vor einer neuen Fragestellung. Wer sind die TäterInnen im Netz? Mit der Anonymität, die das Internet so mit sich bringt, sinkt die Hemmschwelle kriminelle Handlungen zu setzten. Dabei stellt sich auch immer wieder Frage, welches Verhalten im Netz als ‚missbräuchlich‘ – man denke an Cyberstalking oder –mobbing von Jugendlichen – oder als ‚kriminell‘ zu bezeichnen ist.

Die Forderung nach mehr Sicherheit im digitalen Zeitalter erfordert mehr Kontrolle der Aktivitäten im Netz. Diese Kontrolle ist bei den Mengen des stattfindenden Datenverkehrs nur noch durch den Einsatz digitaler Sicherheitstechnologien möglich. Die Technologieentwicklung ist allerdings schon so weit, um potentielle TäterInnen im Netz aufzuspüren. Um diese Technologien präventiv zum Einsatz zu bringen, müsste die Freiheit im Internet und das Recht auf Anonymität stark beschnitten werden. Da eine Vielzahl der TäterInnen im Ausland vermutet werden, müsste eine Kriminalitätsbekämpfung im Netz durch internationale Kooperationen vorangetrieben werden. Je komplexer und unerklärlicher die Verhaltensphänomene, umso größer der Boom der Zukunftsszenarien. Im Rahmen dieses Beitrages werden die neuen Kriminalitätsformen im Internet dargestellt, sowie deren TäterInnen. Dabei soll speziell auf die Situation in Österreich eingegangen werden. Datenbasis sind langjährige Forschungsprojekte von der Vortragenden selbst, eine Metastudie zu internationalen Ergebnissen des Täterprofilings der Rechts- und Kriminalsoziologie sowie die historische Entwicklung der rechtlichen Situation in Österreich. Weiters stellt sich die Frage, ob durch das Aufkommen der neuen Telekommunikationstechnologien ein Wandel vollzogen wurde, wodurch unter anderem kriminelles/missbräuchliches Verhalten gefördert wird. Dem übergeordnet steht weiters die Frage, ob sich durch das Internet eine ‚neue‘ Kriminalität entwickelt hat, oder ob es zu es ausschließlich zu einer Verschiebung von einer ‚klassischen‘ zu einer ‚digitalisierten‘ Form von Kriminalität gekommen ist. Am Ende des Vortrags soll zudem der Frage nachgegangen werden, ob ein verstärkter Einsatz von Sicherheitstechnik im Netz und die damit stattfindende Kontrolle als Mittel gegen Verbrechensbekämpfung eingesetzt werden soll.


Zur Planung Urbaner Sicherheit: Der Unterschied zwischen Theorie und Praxis ist in der Praxis größer als in der Theorie
Günter Stummvoll

Städtebauliche Kriminalprävention
Wer sich mit Städtebau, Soziologie und Kriminologie beschäftigt, stößt früher oder später auf ein Konzept, das in den 1970er Jahren unter dem Begriff „Defensible Space“ von dem amerikanischen Architekten Oscar Newman entwickelt wurde und seither weltweit bekannt geworden ist. Vereinfacht gesagt handelt es sich dabei um ein Konzept zur Kriminalprävention, das sich mit Tatgelegenheitsstrukturen befasst. Das Prinzip „Crime Prevention Through Environmental Design“ versucht dabei kriminologische Forschung mit städtebaulicher und architektonischer Praxis zu verknüpfen. Die Empfehlungen der „Environmental Criminology“ richten sich auf architektonische Gestaltung zur Normverdeutlichung und unterstützen informelle, soziale Kontrolle: Beispielsweise kann mit Hilfe guter Beleuchtung die Tatgelegenheit für Täter verändert werden, indem die Belebung in öffentlichen Räumen erhöht und damit das Entdeckungsrisiko für Täter gesteigert wird. Ebenso wirken identitätsstiftende Gestaltungsmaßnahmen mit Hilfe von speziellem Design positiv auf den kommunalen Zusammenhalt in Stadtteilen. Gemeinsame Verantwortung stärkt die soziale Aufmerksamkeit gegenüber abweichendem Verhalten. Zu diesem Konzept gibt es viele Beispiele. Mit diesen „sanften“ raumpsychologischen Maßnahmen ist jedoch gegen Technikfaszination und der aktuellen Überwachungsideologie kaum beizukommen.

Konstruktivistische Konsulenten?
„Städtebauliche Kriminalprävention“ verbindet Berufsfelder, die miteinander nicht unbedingt kompatibel sind: Justiz, Polizeiarbeit, Raumplanung, Architektur, Gemeinwesenarbeit, Verwaltung, Künstler und Kulturschaffende. Welche Rolle spielt dabei die Soziologie? Das erklärte zweifache Ziel der „Angewandten Soziologie“ – die analytische Erklärung und der konsultative Anspruch – hat in diesem Beispiel besonderen Erklärungsbedarf.

Solange die Soziologie positivistische Ansprüche stellt und als „Crime Science“ einen analytischen, kriminalgeografischen Blick auf Tatgelegenheitsstrukturen richtet, scheint das Problem nicht allzu groß. Aus den verfügbaren Daten wird eine Risikoanalyse erstellt indem die Eintrittswahrscheinlichkeit dem Schadensausmaß gegenüber gestellt wird. Crime-Hotspots sind sozialgeografische Tatsachen. Ziel einer solchen „probabilistischen“ Risikoforschung ist einerseits die Umwandlung von latenten Gefahren in kalkulierbare Risiken, andererseits die Beherrschung von Risiken bis hin zur völligen Eliminierung. Ausgangspunkt ist das wissenschaftliche Erkenntnisprinzip, bei dem Risiken – Naturbeherrschung als Ganzes – mit Hilfe von wissenschaftlicher Forschung unter Kontrolle gebracht werden kann. Oder wie Bonß et al. in ihrer gesellschaftskritischen Zeitdiagnose sagen: „Unsicherheiten, ..., können in dem Maße zum Verschwinden gebracht werden, wie Unwissen in Wissen, Uneindeutigkeit in Eindeutigkeit und Chaos in Ordnung verwandelt werden, wobei dies im Laufe der gesellschaftlichen Entwicklung (angeblich) immer besser gelingt“ (Bonß et al. 2001, S. 148). Soweit die kumulativ-additive Sicherheitskonzeption im Zeitalter der Moderne. Dieser Theorie können auch Praktiker folgen.

Aus diesem probabilistischen Weltbild heraus lässt sich relativ leicht ein Konsultationsprozeß einleiten, in dem gemeinsam mit dem Klienten klare Handlungsanleitungen erstellt werden, um einerseits Täter abzuwehren, und andererseits den Menschen in öffentlichen Räumen ein Gefühl der Sicherheit zu geben. Der Soziologe kann folglich als „Sicherheitskonsulent“ sein erarbeitetes Wissen in einer einzigen Lösung bündeln, und klar und deutlich sagen, mit welchen Mitteln ein (Sicherheits-)Problem am besten bewältigt werden soll.

Sobald jedoch die Soziologie einen konstruktivistischen Ansatz verfolgt, und die Konstruktion von Risiko als gesellschaftliches Phänomen betrachtet, gibt es ein Problem. Dem aus der Ökonomie entlehnten Risikokonzept steht plötzlich ein soziologisches Risikokonzept gegenüber, das besagt, dass unser Wissen nicht nur von den Ereignissen und Erfahrungen abhängt, sondern auch von Diskursen, die über Thematiken geführt werden. Die Zuschreibung von Bedeutung konstruiert dabei eine Kultur von Überzeugungen, die wiederum für die Wahrnehmung und für Verhalten relevant ist. Dieser spezielle soziologische Zugang gründet weiter auf der Annahme, dass Kriminalität als ein soziales Konstrukt zu betrachten ist, indem die Festlegung von legalem und illegalem Handeln einem permanenten sozialen Wandel unterliegt. Welches Handeln in einer Gesellschaft als „abweichend“ (z.B. als kriminell, krank, wahnsinnig, gestört oder aber auch genial) und welches als „normal“ gilt, ist stets ein Ergebnis sozialer Aushandlungen. Devianz und ihre Kontrolle verweisen damit immer auch auf wechselnde gesellschaftliche, politische, rechtliche, ökonomische und historische Kontextbedingungen. Aber das hilft den Praktikern nicht weiter.

„Kritische KriminologInnen“ stehen der Unterscheidung von „objektiven“ und „subjektiven“ Risikoeinschätzungen skeptisch gegenüber, denn diese Unterscheidung impliziert, dass objektive Risiken real und rational seien, während subjektive Risiken lediglich die fehlgeleiteten, irrationalen Ängste von Laien widerspiegeln. Welche Folgen hat das für die kriminologische Arbeit? „Es ist nicht die Aufgabe der Kriminologie, Kriminalität zu verhindern oder zu ‚bekämpfen‘“, schreibt Michael Jasch in „Kriminologie im 21. Jahrhundert“ (Liebl 2007). Aber das ist das Letzte, was Praktiker hören wollen, wenn sie „Experten“ fragen (und dafür bezahlen sollen).

Ein weiterer Ansatz in der Risikosoziologie befasst sich mit den verschiedenen Techniken des Regierens, im Sinne einer Selbstregierung, Regierung der anderen, ebenso mit gesellschaftlichen und staatlichen Regierungsformen. Die von Michel Foucault eingeleitete Diskussion rund um den Begriff Gouvernmentalität will das Selbstverständnis in Bezug auf die gesellschaftlichen Lenkungspraktiken oder Kontrolltechniken nachzeichnen. Mit Hilfe des Gouvernmentalitätskonzepts werden Disziplinartechniken beschrieben, mit denen Menschen zu verschiedenen Verhaltensweisen zu bewegen sind, ohne dass es zu einer offenen Kraftprobe mit der Macht kommt (vgl. Ruffing 2008). Diese Disziplinar-und Führungspraktiken zeigen sich nur implizit in der städtebaulichen Praxis und in der Architektur öffentlicher Räume. Außerdem zielt die Denktradition der Gouvernmentalität besonders auf die Bedeutung von Wissenskonstruktionen in den verschiedenen gesellschaftlichen Feldern, und dabei auch auf Wissen über Risiken, und deren Auswirkungen auf soziale Verhaltensweisen: Welche Wissenskonstruktionen vom Risiko bringen welche Disziplinartechniken zur Bewältigung dieser Risiken hervor? Auch hier zeigt sich jedenfalls der konstruktivistische Ansatz der Risikoforschung, der scheinbar für die kriminalpolitische Praxis nicht handlungsrelevant ist.

Die entscheidende Frage ist nun: Lassen sich diese verschiedenen Zugänge der soziologischen Risikoforschung mit der Konsulententätigkeit verknüpfen? Wie kann konstruktivistisches Wissen in konsultatives Managementwissen verwandelt werden? Konkret: Wie lässt sich soziologisches Wissen über Sozialräume so bündeln, damit es für ein kriminalpräventives Sozialraummanagement relevant wird? Wie können wir die konstruktivistische Soziologie der Sicherheit mit der Praxis der Polizeiarbeit, der Stadtplanung, der Gemeinwesenarbeit und dem Facility Management verbinden?

Solange Vertreter der konstruktivistischen Kriminologie mit ihren theoretischen Überlegungen ökonomisch abgesichert sind, kümmert sie die Differenz zwischen Theorie und Praxis wenig. Aber auf Drittmittel aus der Wirtschaft für kulturwissenschaftliches Nachdenken brauchen sie nicht zu hoffen. Im vorliegenden Fall der „städtebaulichen Kriminalprävention“ haben weder Bauträger, noch die Polizeibehörde, auch nicht Architekten oder Stadtplaner in den Planungsabteilungen der Verwaltung, Interesse an den raumsoziologischen Diskursanalysen der Kriminalsoziologen. Die Soziologie kann zwar über die Praxis nachdenken, aber Praktiker zu diskurstheoretischen und hermeneutischen Überlegungen zu überreden, ist hoffnungslos. Somit lässt sich sagen: Der Unterschied zwischen Theorie und Praxis ist in der Praxis größer als in der Theorie.


Urbane Sicherheit 2. – Mehr als der Umgang mit Facebook-Partys, Flashmobs und Cyber-Mobbing. Interdependenzen zwischen urbaner Sicherheit und Internetnutzung
Holger Floeting

Die Sicherheit städtischer Räume kann im Zeitalter des Internet und der verstärkten Nutzung von Web 2.0‐Anwendungen nicht mehr allein fokussiert auf die materiellen Räume beurteilt und positiv entwickelt werden. Zwischen dem virtuellen Raum des Internets und materiellen städtischen Räumen gibt es eine Vielzahl von Verknüpfungen und Rückkoppelungen, die gerade auch für die Sicherheit und Ordnung in städtischen Räumen von wesentlicher Bedeutung sind.

Als Querschnittstechnologie greift das Internet in nahezu alle Bereiche des täglichen Lebens ein. Gerade in Städten als Räumen höchster Informationsdichte, Knoten der Netzinfrastruktur und Orten, an denen sich die Anwender konzentrieren, wird dies sichtbar. Die Zusammenhänge zwischen dem Internet und der Entwicklung von Sicherheit und Ordnung zeigen sich in den städtischen Räumen im Wesentlichen nicht als direkte, sondern als vermittelte Wirkungen, die nicht von der Technologie selbst, sondern von ihrer Anwendung in einem vielschichtigen sozialräumlichen Kontext bestimmt werden. Die weitgehende Durchdringung des Alltags mit Informations‐ und Kommunikationstechnik führt zur Bildung eines komplexen Geflechts von materiellem und virtuellem Raum. Räumliche Dimensionen verlieren dabei an Eindeutigkeit. Denn für die Nutzer des Internets ist es möglich, zugleich lokal und weltweit zu agieren, zugleich privat und öffentlich zu sein. Dies muss erhebliche Rückwirkungen auf Strategien, Konzepte und Maßnahmen zur Gewährleistung und Herstellung von Sicherheit und Ordnung in städtischen Räumen haben, die bisher meist auf der Trennung zwischen privat und öffentlich, lokal und global, kommunal und staatlich basieren und durch Kooperationen versuchen den komplexen Fragestellungen urbaner Sicherheit gerecht zu werden. Bereits heute lässt sich absehen, dass urbane Sicherheit in mindestens zweifacher Hinsicht auch durch den Umgang mit dem Internet geprägt sein wird:

• Einerseits verändern sich die Aufgabenfelder in Abhängigkeit von den Anforderungen durch die sich wandelnde Gesellschaft. Urbane Lebensstile verändern sich durch die Einbindung der Internetnutzung in das alltägliche Handeln. Daher verändern sich auch traditionelle Aufgaben der Sicherheitsakteure in der Stadt. Neue Aufgaben kommen hinzu, andere Aufgaben werden neuen Akteuren übertragen oder zusammen mit neuen Akteuren bearbeitet. Kooperation und bürgerschaftliches Engagement gewinnen an Bedeutung. Neue Erwartungen der Bürger an die schnelle Erledigung von Aufgaben im Bereich Ordnung und Sicherheit in den Städten entstehen. Neue Informationskanäle und Verständigungswege erfordern von den Sicherheitsakteuren in der Stadt schnelles und gezieltes Reagieren. Deliktstrukturen verändern sich und machen neue Handlungsweisen notwendig. Bei stagnierenden finanziellen wie personellen Ressourcen werden neue Prioritätensetzungen notwendig, die mit Auseinandersetzungen über die Verteilung der Mittel verbunden sein werden.

• Andererseits wandelt sich die Art und Weise des Sicherheitshandelns. Der Einsatz des Internets zur eigenen Aufgabenwahrnehmung ist mit administrativen, sozialen und ökonomischen Veränderungen verbunden. Die Rolle von Sicherheitsakteuren als Ansprechpartner für Bürger in Fragen der „sicheren Stadt“ und Gewährleister von Ordnung in der Stadt wird im Rahmen von E‐Governance neu definiert werden. Neue Möglichkeiten zur Nutzung von Mediationen, Aushandlungsprozessen, Bürgerpartizipation bei der Gewährleistung von Sicherheit und Ordnung in den Städten eröffnen sich durch den Einsatz von Web 2.0-Anwendungen.

Der Begriff Web 2.0 oder auch Social Media beschreibt die Weiterentwicklung internetgestützter Kommunikationsmöglichkeiten, bei denen der Nutzer nicht mehr nur ausschließlich als Konsument von Informationen auftritt, sondern selbst Inhalte generiert. Technologische Veränderungen werden von organisatorischen Veränderungen (Behördenorganisation, Meinungsbildungsprozesse, Bürgerpartizipation usw.) begleitet. Der sozialräumliche Kontext der Anwendung von Informations‐ und Kommunikationstechnologien kann abhängig von ihrer Einbettung zu unterschiedlichen Wirkungen gleicher Technologien führen. Die verstärkte Nutzung des Internet und die enge Einbindung in den Lebensraum Stadt, kann daher mit unterschiedlichen Einflüssen auf Sicherheit und Ordnung in den Städten verbunden sein. Die integrativen und partizipativen Potenziale des Web 2.0 könnten stärker für eine bürgerschaftlich orientierte Entwicklung urbaner Sicherheit genutzt werden. Ebenso können sich aber aus der Organisationsmacht sozialer Medien auch neue Risiken und Bedrohungen für die urbane Sicherheit entwickeln. Die besonderen Veränderungspotenziale des Einsatzes der Informations‐ und Kommunikationstechnik in Bezug auf die Muster von Governance liegen sowohl darin begründet, dass „jeder mit einem netzfähigen Endgerät ... Empfänger wie Sender sein [kann]“, „Institutionen und ihre Vorgänge in bisher unbekanntem Ausmaß transparent werden“ und „Zwischenschichten von Intermediären in Hierarchien ... überflüssig zu werden [drohen]“ (Reinermann & von Lucke 2001, S.4). Dies gilt besonders auch für den Bereich urbaner Sicherheit, indem sich ein ohnehin schon komplexes Geflecht von direkten und indirekten Akteuren der Sicherheitsproduktion weiter verändert, ein sich häufig auf vertrauliche Einschätzung von Sicherheitslagen und der selektiven Weitergabe von Informationen geprägtes Sicherheitshandeln Forderungen nach stärkerer Transparenz ausgesetzt sieht und hierarchisch orientierte Organisationsstrukturen von neuen Kooperationsstrukturen überlagert werden.

Die Rolle des Internets wurde in Bezug auf Themen der zivilen Sicherheit bisher nur sehr selektiv untersucht: Intensiver befasste sich die Forschung bisher mit Themen der Informationssicherheit also der Sicherheit des Internets selbst. Rückwirkungen der Nutzung des Internets auf den materiellen Raum wurden bisher vor allem unter dem Aspekt der Einflussnahme auf die vorhandene technische Infrastruktur (beispielsweise auf die Verknüpfung von industriellen Steuerungssystemen mit dem Internet), dem Schutz vor dem Ausfall von Versorgungsinfrastrukturen und den ökonomischen Auswirkungen der Verbreitung von Schadsoftware untersucht. Wissenschaftlich untersucht wurden die Schadpotenziale von Cybercrime, die Entwicklung von Standards für Cybersecurity und die mit dem Themenkomplex in Zusammenhang stehenden Veränderungen von Sicherheitsarchitekturen. Lebensweltlich orientierte Untersuchungen haben den Einfluss des Internet auf bestimmte eng begrenzte Bereiche des städtischen Lebens untersucht (beispielsweise die Rolle von Cybermobbing für den Schullalltag, Coping‐Strategien und Präventionsmöglichkeiten). Darüber hinaus bestehen aber zahlreiche Verknüpfungen zwischen der virtuellen Welt des Internets und der materiellen Welt der Stadt. Gerade Fragen der städtischen Ordnung und Sicherheit spielen dabei eine wichtige Rolle. Der Beitrag beschäftigt sich mit den Veränderungen der Aufgabenfelder urbaner Sicherheit und der Art und Weise des Sicherheitshandelns. Er beleuchtet die sich entwickelnden Interdependenzen zwischen Internetnutzung und urbaner Sicherheit und thematisiert in diesem Zusammenhang mögliche Einschränkungen der Freiheit ebenso wie Freiheitsgewinne durch ein neues Verhältnis zwischen Privatheit und Öffentlichkeit. Der Beitrag zeigt die Notwendigkeit der Etablierung lokal eingebetteter Sicherheitskulturen auf, die eine Voraussetzung für die Entwicklung transdisziplinärer Auseinandersetzungen mit urbanen Sicherheitsaufgaben ist. Er macht die Notwendigkeit der Entwicklung eines Risikobewusstseins auch im Bereich urbaner Sicherheit deutlich, dass ein Maß an Unsicherheit als Teil städtischen Lebens begreift.


Alltägliche Artefakte und ihre Rolle im Streben nach Sicherheit
Christoph Stich

Dieses Paper stellt die Frage, wie mit der Hilfe von alltäglichen Objekten versucht wird Sicherheit herzustellen. Um diese Frage zu beantworten, werden die Logiken von Sicherheitskonzepten in diesen alltäglichen Gegenständen nachgezeichnet und analysiert. Der Maxime folgend, dass mit und durch Artefakte Politik (Winner 1989) betrieben wird, werden Straßenbeleuchtung, Bushaltestellen und Bike Boxes an dem Fallbeispiel Portland, OR, auf ihre sicherheitsrelevanten Aspekte untersucht. Dabei zeigt sich, dass die Herstellung von Sicherheit durch Artefakte nicht nur ein Prozess ist der mit demokratiepolitisch fragwürdigen Dimensionen behaftet, sondern selbst ein Spiegel der Herstellung von Sicherheit in anderen Bereichen ist – Artefakte als Spiegel gesellschaftlicher Entwicklungen (Sezneva 2007).

• Bike Boxes: Der politische Protest nach dem Tod zweier Radfahrer/-innen zwang den damaligen Verkehrsstadtrat Sam Adams zum Handeln. Der Protest erwies sich aber auch als günstige Gelegenheit für die Verkehrsingenieure der Stadt ihr Konzept der Bike Boxes zu implementieren. Eine technologische Lösung sowohl für ein Sicherheitsproblem als auch ein politisches Problem. Eine Expertenlösung, die beinahe uneingeschränkt von der Bevölkerung akzeptiert wurde, jedoch das Versprechen nach mehr Sicherheit nicht einlösen konnte. Manche Kreuzungen wurden für Radfahrer/-innen gefährlicher als zuvor. Dabei wird der Diskurs aber beinahe ausschließlich von Experten für Experten geführt und alternative Lösungsansätze wenig bis nicht beachtet.

• Bushaltestellen: Interessanterweise verfügen die Verkehrsbetriebe in Portland über erstaunlich wenig Wissen, was das Verhalten ihrer Fahrgäste an Bushaltestellen anbelangt. Unter anderem werden Überwachungsbänder lediglich retrospektiv nach einem gemeldeten Vorfall ausgewertet. Weiters liegen Daten über das Verhalten von Fahrgästen allein in statistischen Aggregaten über die Häufigkeit von Ein- und Ausstiegen an Haltestellen vor. Um nun in Anbetracht dieses Unwissens dennoch Sicherheit zu gewährleisten, werden Bushaltestellen von vornherein so gestaltet, dass sie bestimmte Verhaltensweisen ausschließen und nur legitime Verhaltensweisen zulassen. Großes Augenmerk wird darauf gelegt, dass die Bushaltestellen von über-all einsehbar sind und so „natürliche“ Überwachung durch andere Passant/-innen stattfinden kann (Atlas 2010).

• Straßenbeleuchtung: Straßen in Portland sind chronisch schlecht beleuchtet. Die Standards der Illuminating Engineering Society werden auf Grund von Budgetknappheit so gut wie nicht erfüllt und so hat man sich dazu entschlossen die Stadt immerhin uniform „unterzubeleuchten“. Dies hat nun aber fatale Auswirkungen für die Sicherheit von unbeleuchteten Verkehrs-teilnehmer/-innen. Schlechte Lichtverhältnisse sind überproportional an Verkehrsunfällen von Fußgänger/-innen beteiligt. Dies führt nun aber nicht zu mehr Beleuchtung, sondern zu einer Individualisierung des Sicherheitsproblems (Beck 1992). Bürger/-innen wird in Promotionskampagnen nahe gelegt das Problem selbst in die Hand zu nehmen und sich selbst sichtbarer zu machen.

Sicherheit im urbanen Raum ist eine Querschnittsmaterie, die sich weder auf eine wissenschaftliche Diziplin noch auf bestimmte Handlungslogiken der involvierten Akteure reduzieren lässt. Es wird jedoch argumentiert, dass sich die Sicherheitslogiken in den urbanen, alltäglichen Artefakten, die den Stadtraum prägen wieder finden lassen. Städte sind demnach nicht nur ein Labor für die Diziplinargesellschaften (Deleuze 1995), sondern auch für die Sicherheitsgesellschaft – ein Labor aus alltäglichen Gegenständen.

Literatur:
Atlas, R. I. (2010). 1st Century Security and CPTED: Designing for Critical Infrastructure Protection and Crime Prevention . Taylor & Francis.
Beck, U. (1992). Risk Society: Towards a New Modernity. Sage.
Deleuze, G. (1995). Negotiations. Columbia University Press.
Sezneva, O. (2007). "We Have Never Been German": The Economy of Digging in Russian Kalingrad. In Practicing Culture, London and New York. Routledge.
Winner, L. (1989). Do Artifacts have Politics? In The Whale and the Reactor: A Search for Limits in an Age of High Technology, pages 1939. University of Chicago Press.


 

Parallel-Sessions II:


Von Wölfen und Schafen: Paradoxe Ergebnisse in der Sicherheit
Rolf von Rössing

Sicherheitspolitik und Sicherheitsmanagement tendieren in der jüngeren Vergangenheit zu immer dichteren Regelungen, Kontrollen und einer engmaschigen gesamtgesellschaftlichen Verbotsbewirtschaftung. Anhand empirischer Befunde wird gezeigt, dass gerade diese Tendenz immer häufiger zu paradoxen Ergebnissen führt. Systemisches Versagen herkömmlicher Sicherheitssysteme ist allgegenwärtig. Es bedarf eines grundlegend neuartigen Ansatzes, um die gesellschaftliche Freiheit mit den Belangen der Sicherheit in Einklang zu bringen. Technikfolgen sind dabei ein wichtiger Aspekt. Das Paper soll erste Lösungsansätze aufzeigen, um zu einem systemisch erfolgreichen Verständnis von Sicherheit und Freiheit beizutragen.

Once upon a time, in the green fields and meadows…
Sheep: „Look how few of us are left! Many sisters and brothers have been eaten by the wolves!“
Whereupon the sheep held a big council and debated their situation. At the end, they made a big decision:
Sheep: „We will build a higher fence much closer to our little houses to keep the big bad wolves out!“
After much bleating, the sheep went to work and erected a fence that was much higher and much closer to their little houses. Meanwhile, out in the forest:
Wolf 1: „Methinks the sheep are all over there, and much closer together.“
Wolf 2: „Yeah.“
Wolf 1: „They´ve built a new fence about a yard higher than the old one.“
Wolf 2: „So? That´s sheep rules. Stop waffling and give me that g…damn bolt-cutter!“

Der öffentliche und politische Diskurs zur Sicherheit – insbesondere im Hinblick auf „Cyber Crime“ und „Cyber Warfare“ – tendiert anhand zahlreicher Praxisbeispiele zu einer immer stärkeren Verregelung des gesellschaftlichen Geschehens. Unterstützt wird dies durch neue technische Lösungen, die von der Schaffung staatlicher Datensammlungen bis hin zu drastischen Eingriffen in die Freiheit des Individuums reichen. Das Paper beschreibt empirische Befunde und analysiert sie im Hinblick auf ihre tatsächliche Wirksamkeit:

Was ist politisch-gesellschaftlicher und technischer Sachstand?

Wie entwickeln sich dem gegenüber Sicherheitsvorfälle, Cyber Crime und Cyber Warfare?

Folgen der Entwicklung in der technischen Sicherheit
Sicherheitsmanagement und politische Initiativen werden zunehmend technisiert. Neben Kontrollsystemen und entsprechenden Regelungen kommt es zu Lösungsansätzen, die nicht nur von geringem Nutzen, sondern ausweislich bedrohlich für die Freiheit und Privatsphäre in der Gesellschaft sind. Mehrere „Game Changers“ konvergieren und schaffen eine brisante technische Lage:
1. Zunehmende technische Intelligenz und Leistung der Geräte nebst bekannten Problemen, diese angemessen abzusichern
2. Wachsende (auch unerwünschte) Vernetzung und zwingende Transition kritischer Geschäfts- und Privattransaktionen hin zu rein elektronischen Verläufen
3. Sinkende Fähigkeit und Bereitschaft des Individuums, komplexe technische Zusammenhänge zu verstehen und im Alltag zu beherrschen.

Das Zusammenwirken dieser global nachweisbaren Trends erhöht die technischen und sozialen Risiken in der Sicherheit in nichtlinearer Weise. Das Paper stellt die Konsequenzen dar und reflektiert sie im Hinblick auf bisherige politische und technische Sicherheitsinitiativen.

Sicherheit und Freiheit – ein Dilemma
Der überwiegende Teil herkömmlicher Ansätze zur Sicherheit negiert die individuelle Verantwortung und Kompetenz. Strengere Regeln und ausufernde Kontrollen haben bereits jetzt eine Lage verursacht, in der die Freiheit des Einzelnen spürbar beschränkt wird. Die gesellschaftliche Perspektive eines „nanny state“ hemmt zugleich den technischen und sozialen Fortschritt: die nächste Generation wird sehr wirksam an der Entwicklung ihres ureigenen Gesellschaftsbildes gehindert. Das Paper analysiert hier wiederum empirische Beispiele und ihre Auswirkungen.

Systemische Lösungsansätze
„Sicherheit“ im weitesten Sinne erfordert mithin einen neuartigen Ansatz, der in [Roes11] erstmals angedeutet wurde. Das Paper stellt die Weiterentwicklung dieses Ansatzes (u. a. durch neue ISACA-Modelle) vor und legt dar, wie eine systemische Sicherheitsperspektive zur Überwindung der zuvor diskutierten Probleme beitragen kann.

Schlussfolgerungen und Ausblick
Anhand der zuvor dargelegten Lösungsansätze stellt das Paper weitere Initiativen und Forschungsansätze vor. Es wird ein Ausblick auf die kommende und bereits geplante Arbeit gegeben. Hierbei wird auch auf die 2012 und in diesem Jahr begonnenen Projekte eingegangen.

Literatur:
Rössing, R. von. Von der Sicherheit im Kollektiv zum Schutz des Individuums: ein Paradigmenwechsel. / Si.-Konferenz Krems 2011


Sicherheit als Variable ohne Obergrenze
Robert Rothmann

Greift man die Frage auf, ob "... die Versprechungen, Sicherheit schaffen bzw. für Sicherheit sorgen zu können, einer kritischen Überprüfung standhalten?", so lässt sich für Österreich im Fall von Video-überwachung feststellen, dass bisher überhaupt keine methodisch adäquate Evaluation der sicherheits-technischen Eignung stattgefunden hat. Selbst Ergebnisse internationaler Studien haben praktisch keine Auswirkung auf die hiesige Verbreitung der Maßnahme. In der Praxis wird die potentielle Hilfe bei der Strafverfolgung zum unumstößlichen Argument für Effektivität. Darüber hinaus erfährt Video-überwachung große Zustimmung, auch im sicheren Österreich. Mit zunehmender Verbreitung der Maßnahme steigt die Akzeptanz sogar an, als würden anfängliche Skeptiker ihre Scheu verlieren.

Dies scheint vor allem in rechtlicher Hinsicht widersprüchlich, da Videoüberwachung als situationsbezogene "Präventionsmaßnahme" in der Regel personenbezogene Bilddaten verarbeitet, wodurch ein Eingriff in die bestehenden Grundrechte auf Privatsphäre (Art 8 Abs 1 EMRK) und Datenschutz (§ 1 Abs 1 DSG 2000) vorliegt. Im Fall grundrechtlicher Eingriffe kommt das Prinzip der Verhältnismäßigkeit zur Anwendung. Dieses wird weiter in die analytischen Unterbegriffe der Eignung, Erforderlichkeit und Notwendigkeit (als der Verhältnismäßigkeit i.e.S.) unterteilt. Gerade über den Begriff der Eignung ist eine Überprüfung der tatsächlichen Effektivität der Überwachungstechnologie vorgesehen.

Laut Kammerer (2008) geht es aber weniger um die tatsächliche Effektivität, als um die Bilder und Vorstellungen, die wir von der Überwachung haben. Videoüberwachung ist als sicherheitsbringende Technologie und fortschrittliche Lösung im Umgang mit Kriminalität gelabelt, so dass jede Evaluation irrelevant erscheint. Es kursiert die feste Vorstellung sicherheitstechnischer Eignung und die implizite Annahme, dass ein Ausbau der Überwachung zwangsläufig auch irgendwie zu einer Reduktion von Kriminalität führt. Jedes dennoch begangene Delikt wird zum Argument für weiteres Aufrüsten.

Doch Sicherheit ist eine Variable auf einer Skala ohne Obergrenze. Selbst im Fall totaler Überwachung und Kontrolle all unserer Lebensbereiche und Alltagsmomente ('ubiquitous surveillance') gäbe es Varianzen, abweichendes Verhalten und Kriminalität. Durkheim hat dies bereits 1895 erkannt und festgestellt, dass keine derart allumfassende und absolute Uniformität möglich ist, die ausreichend wäre, jede Überschreitung und Dissidenz zu verhindern. Ohne abweichendes Verhalten gutheißen zu wollen, bezeichnet er es als normales Phänomen und regulären Wirkungsfaktor sozialen Lebens(ebd. 1984: 155ff). Die unmittelbare physische Umgebung, die erblichen Vorbedingungen und die sozialen Einflüsse, von denen wir abhängen, schwanken von Individuum zu Individuum und gestalten jedes Bewusstsein anders. Demnach kann es keine Gesellschaft geben in der die Individuen nicht mehr oder weniger vom kollektiven Typus abweichen. Es ist unvermeidlich, dass sich unter diesen Abweichungen auch solche befinden, die verbrecherischen Charakter tragen. Welches Verhalten letztlich als Kriminalität bezeichnet wird, aber auch die Duldung von und der Umgang mit abweichendem Verhalten, hängt vom jeweiligen Wertesystem der Gesellschaft ab und unterliegt den Bedingungen sozialen Wandels: "In früheren Zeiten kamen Gewalttätigkeiten gegen Personen häufiger vor, weil die Achtung vor der persönlichen Würde geringer war. In dem Maße, wie diese Achtung gestiegen ist, wurden jene Verbrechen seltener. Gleichzeitig aber wurde eine Anzahl vorher ungeahndeter Handlungen, welche diese Gefühle verletzten, Gegenstand strafrechtlicher Verfolgung (z.B. Verleumdung, Beleidigung, Betrug)."(Durkheim 1984: 158).

Als fester Bestandteil jeder Gesellschaft erfüllt Devianz mitunter auch den Zweck der Normfestigung. Sowohl Émile Durkheim als auch George H. Mead (1928) sehen die funktionalen Konsequenzen ab-weichenden Verhaltens in der Stärkung der Gruppe, welche aus der gemeinsamen Ablehnung des Ab-weichenden resultiert (vgl. Coser 1968). Abweichendes Verhalten fungiert in diesem Sinne als dialektischer Gegenpol zur Norm. Kriminalität als Antithese zu allgemein gängigen Moralvorstellungen. "Das Verbrechen", sagt Durkheim, "vereinigt die aufrechten Gemüter und läßt sie zusammenrücken." (ebd. 1977: 70). Das ständige Thematisieren räumlich, zeitlich und sozial entgrenzter Risiken (vgl. Beck 2002), legitimiert den Einsatz und die Ausweitung von Überwachungsmaßnahmen. Dabei findet ein ständiges Verweisen auf und eine Bestärkung von gesellschaftlichen Normen statt. Dies wiederum führt vermehrt zu Konformität. Diese äußert sich m.E. auch in Form eines sukzessiven Schwunds des Anspruchs auf Privatsphäre. Anonymität gilt zunehmend als Sicherheitsrisiko und wird als moralisches Übel abqualifiziert (vgl. Sennett 1983). Nimmt der Grad an Konformität in einer Gesellschaft überhand, besteht jedoch die Tendenz sozialer Stagnation. Ein auf konformes Verhalten aufgebautes System wird in sich die Tendenz zu einem hohen Gradvon Entropie enthalten (vgl. Coser 1968). "Je stärker ausgeprägt eine Struktur ist, desto größeren Widerstand leistet sie jeder Änderung; "(Durk-heim 1984: 160). Abweichendes Verhalten gilt daher auch als Motor gesellschaftlichen Wandels und gesellschaftlicher Neuerung. Aber nicht jede Form abweichenden Verhaltens ist über die Funktion sozialen Wandels zu legitimieren. Coser (1968) differenziert diesbezüglich zwischen Kriminellen und Nichtkonformisten. Beide widersetzen sich normativen Erwartungen, die Normabweichung des Nicht-konformisten stellt jedoch (in der Regel) eine alternative moralische Anschauung zu Disposition, die in sich wiederum auf das Wohl der Gruppe bzw. der Gesellschaft abzielt.

Aber was bedeutet dies nun, wenn wir davon ausgehen, dass absolute Sicherheit bzw. eine Gesellschaft ohne Kriminalität prinzipiell nicht möglich ist, aber dennoch unaufhörlich versucht wird, dieses Ziel über die Installation und Implementierung von Kontroll- und Überwachungstechnologien zu erreichen? Kann eine über den aktuellen (Un-)Sicherheitsdiskurs und Überwachungstechnologien hergestellte Konformität innerhalb der Gesellschaft zu einer zivilisatorischen Verfeinerung von Gesellschaft führen? Lässt sich das Verhalten der Bevölkerung über derartige Maßnahmen und Impulse soweit beeinflussen und "modellieren", dass es weitgehend gewaltfrei wird? Müssen wir durch die Bestärkung von Normen wirklich den Verlust der sozialen Wandlungsfähigkeit von Gesellschaft befürchten? Oder sind wir möglicherweise gleich einem doppelten Mythos verfallen: Einerseits der Effektivität der Überwachungsmaßnahmen zur Reduktion von Kriminalität, andererseits der Normfestigung und Konformität als Resultat des Risikodiskurses?

Literatur:
Beck, Ulrich (2002): The Terrorist Threat: World Risk Society Revisited. Theory, Culture & Society. Sage Publications Vol. 19 (4), p. 39-55.
Coser, Lewis A. (1968): Einige Funktionen abweichenden Verhaltens und normativer Flexibilität, in: Sack, Fritz; König, René (Hg.) Kriminalsoziologie. Akademische Verlagsgesellschaft, Frankfurt a. M., S. 21-37.
Durkheim, Émile (1984): Die Regeln der soziologischen Methode. suhrkamp taschenbuch wissenschaft 464.
Durkheim, Émile (1977): Über die Teilung der sozialen Arbeit. Suhrkamp, Frankfurt a. M.
Kammerer, Dietmar (2008): Bilder der Überwachung. edition suhrkamp 2550.
Mead, George H. (1928): The Psychology of Punitive Justice, in: American Journal of Sociology 23, p. 577-602.
Sennett, Richard (1983): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Berliner Taschenbuch Verlag.


Sicherheitspolitik als Moving Target? – im Fahrwasser der „Securitization“
Stefan Strauß

Sicherheitskonzepte und Strategien haben sich seit den Neunziger Jahren deutlich gewandelt. Trotz (bzw. auch gerade aufgrund) der breiten Palette von unterschiedlichen Rollen, Bedeutungen und Konzeptualisierungen von Sicherheit scheint der Anspruch nach einem holistischen Sicherheitskonzept im politischen Diskurs gewachsen zu sein. Eine derartige Entwicklung spiegelt sich auf nationaler wie auf europäischer Ebene wider (u.a. im Haager Programm zur Stärkung von Freiheit, Sicherheit und Recht in der Europäischen Union). Sicherheit wird immer mehr als übergreifendes Ziel gehandelt, dessen Umsetzung dementsprechend weitläufige Maßnahmen erfordert. Diese Maßnahmen sind meist eng mit dem Einsatz von Technologien verbunden, die in unterschiedlicher Ausprägung Überwachung und Eingriffe in die Privatsphäre nach sich ziehen. Die technologie-gestützten Praktiken haben dabei nicht selten präventiven Charakter, um potenzielle Bedrohungen bereits im Vorfeld auszuräumen. Dadurch kann ein „Sicherheitskontinuum“ (Buzan et al 1998) in dem Sinne entstehen, das Sicherheit zu einer Art beweglichem Ziel macht, dessen Verfolgung dementsprechend mit einer enormen Eigendynamik verbunden ist. Lässt sich Sicherheit sehr allgemein als Zustand frei von unvertretbaren Risiken begreifen, so ist der Begriff an sich bereits immer auch mit Risiko behaftet – risikofreie Sicherheit ist somit bereits ein Widerspruch in sich. Dieser wird jedoch inhärenter Bestandteil einer „Securitization“ (u.a. Weaver 1995, Watson 2011) – einer Versicherheitlichung, die Sicherheit als fortwährenden Prozess versteht. Diese Prozess-Sicht verlockt mit einem vermeintlich weit reichenden, vorausschauenden Blick auf Gefahren, der die Schaffung wirksamer Schutzmechanismen begünstigt. Nicht selten wird Technologie dabei als das Mittel der Wahl betrachtet, insbesondere IKT verleiten zu der Annahme, komplexe Maßnahmen könnten entscheidend vereinfacht oder gar automatisiert und kosten-effizient zu Sicherheitsgewinnen führen. Verstärkter Einsatz von Informationssystemen und Datenbanken (z.B. Schengen Informationssystem, Eurodac, etc.) und deren zunehmende Vernetzung sowie präventives Erfassen von Kommunikationsdaten wie bei der Vorratsdatenspeicherung sind Beispiele dieses Paradigmenwechsels in der Sicherheitspolitik. Eng mit dieser Entwicklung verwoben ist die Annahme eines per se konfliktären Verhältnisses zwischen Sicherheit und Privatsphäre im Sinne eines Trade-Off, der sich im Technologieeinsatz verfestigt. Das Framing als Trade-off ist verlockend, begünstigt es doch die Abgrenzung des einen Konzepts vom anderen. Bei der Einführung von Sicherheitstechnologien lässt sich demnach leichter argumentieren, der Konflikt existiere ohnehin und sei zugunsten der Sicherheit in Kauf zu nehmen. Dabei wird oftmals übersehen, dass Sicherheit ebenso wenig absolut ist wie Privatsphäre und demnach nur unter Berücksichtigung derselben wirksam realisierbar ist. Dieser Beitrag beleuchtet, inwieweit sich technologie-gestützte Sicherheitskonzepte und strategische Zielsetzungen im Zuge der „Securitization“ gewandelt haben und welche Rolle das Verhältnis zwischen Sicherheit und Schutz der Privatsphäre darin spielt.


"Don’t touch my junk!" – Versuch eines pragmatisch orientierten Frameworks für die Bewertung der ethischen und gesellschaftlichen Auswirkungen von Flughafen-Screening
Sebastian Volkmann

Sicherheitstechnologien und -Maßnahmen sind an Flughäfen nahezu omnipräsent. Es scheint, als manifestiere sich die „Vervielfältigung der Sicherheitsdiskurse“ der letzten Jahrzehnte hier in einem besonderen Maße. Aus der insgesamt vergleichsweise massiven Präsenz von Kameras, Sicherheitskräften, Lautsprecheransagen, etc. stechen die Kontrollen am Sicherheits-Checkpoint natürlich nochmals besonders heraus. Durch neue Vorschriften, etwa das Verbot von Flüssigkeiten und Gels, und nicht zuletzt auch wegen der großen Welle der Empörung gegen die ersten Versionen der sogenannten „Nacktscanner“ rückte dabei in den letzten Jahren auch die Frage nach den Grenzen der Zumutbarkeit solcher Sicherheitskontrollen in den Mittelpunkt der gesellschaftlichen Diskussion. Gerade in der Folge der Debatte um die Einführung von bildgebenden Technologien an Flughafen-Checkpoints entstanden auch eine ganze Reihe wissenschaftlicher Beiträge, die sich gezielt mit ethischen Fragen und Folgeabschätzungen zu diesen neuen Technologien auseinandersetzen. So wertvoll derartige Analysen für die Debatte ohne Zweifel sind, sie berücksichtigen dabei zumeist nicht, dass neue Technologien letztlich immer im Verbund mit anderen Maßnahmen in ein komplexes System aus Abläufen und Geräten eingebunden werden. In Großbritannien etwa werden diese Geräte als Alternative zum Abtasten des Körpers eingesetzt. In diesem Sinne ist also nicht nur die ethisch-gesellschaftliche Reflexion über derartige neue Screening-Technologien als solche notwendig, sondern auch ein Nachdenken darüber, wie sich Chancen und Risiken solcher Technologien im Checkpoint-Verbund als Ganzem auswirken. Für das Forschungsfeld der angewandten Ethik ergibt sich dadurch eine neue, zentrale Frage: Wie kann aus einer ethisch-gesellschaftlichen Perspektive eine methodengeleitete Bewertung und ein systematischer Vergleich von Flughafen-Checkpoints mit unterschiedlichen Screening-Prozessen und Technologien geleistet werden?

Ausgehend von einer Typologie ethischer und gesellschaftlicher Risiken von Screening-Maßnahmen an Flughäfen werde ich bei meinem Vortrag den Versuch eines Frameworks zur Bewertung der Eingriffstiefe solcher Checkpoint-Systeme vorstellen, das im Rahmen des EU-Forschungsprojekts XP DITE am Centre for Security and Society und am Husserl-Archiv der Universität Freiburg entstanden ist. Im Fokus stehen dabei Überlegungen zum Eingriff solcher Screening-Maßnahmen in die individuelle Privatsphäre, zu Gefahren der Diskriminierung, zur Akzeptanz sowie dazu, inwiefern durch den Einsatz solcher Technologien einer Entwicklung hin zu einer restriktiveren Gesellschaft Vorschub geleistet wird. Unter Berücksichtigung von Fehlerraten und der Eingriffstiefe von weitergehenden Screening-Maßnahmen bei Alarmen werden dabei alle „Wege“ der Flugpassagiere durch den Checkpoint systematisch analysiert und gewichtet. Gleichzeitig sind Typologie und Framework aber auch pragmatisch daraufhin ausgerichtet, aus den identifizierten Risiken und aus den Bewertungskriterien auch Empfehlungen generieren zu können, wie sich negative Auswirkungen von Screening-Maßnahmen beim Design von Flughafen-Checkpoints minimieren lassen.


Sicherheit im Kontext altersgerechter Assistenzsysteme
Karsten Weber

Der demografische Wandel ist in Deutschland und vielen anderen Ländern durch eine dreifache Alterung der Bevölkerung gekennzeichnet: 1) Der Anteil alter Menschen nimmt relativ zur Bevölkerung zu, 2) steigt die Zahl alter Menschen auch absolut und 3) erreichen diese alten Menschen ein immer höheres Lebensalter (vgl. Weber, Haug 2005). So positiv insbesondere der letztgenannte Punkt ist, stellt diese Entwicklung die betroffenen Gesellschaften vor erhebliche Herausforderungen, da bspw. ein steigender Bedarf an medizinischer und pflegerischer Versorgung finanziell und organisatorisch gedeckt werden muss. Ein Aspekt des demografischen Wandels ist weiterhin, „dass der Anteil an pflegebedürftigen Personen wächst, die alleine leben und sich zu Hause auf kein oder nur ein labiles Versorgungsnetzwerk stützen können“ (Depner et al. 2010: 33): Noch werden in Deutschland ca. 2/3 aller pflegebedürftigen alten Menschen in Deutschland zuhause versorgt, doch es besteht die Befürchtung – wie in dem Zitat ausgedrückt –, dass dies in Zukunft nicht mehr möglich sein wird. Dafür gibt es viele Ursachen: Fehlende Arbeitskräfte für die Pflege, eine (zumindest regional) sich ausdünnende Versorgungsinfrastruktur, Aufbrechen der sozialen Netze usw.

Diese Entwicklung, die auf wissenschaftlicher Seite schon seit mehreren Jahrzehnten prognostiziert wurde, bekommt zunehmend öffentliche Aufmerksamkeit und gleichzeitig wird sie als politisches Handlungsfeld entdeckt. So wurde bspw. in der Bundesrepublik Deutschland 2008 ein Förderschwer-punkt „Ambient Assisted Living“ durch das BMBF eingerichtet; damit sollte die Entwicklung altersgerechter Assistenzsysteme gefördert werden, die es ermöglichen, dass pflegebedürftige Menschen länger selbstständig und ohne personale Hilfe zuhause leben können. Auf diese Weise sollten die oben genannten Ursachen für einen befürchteten Pflegenotstand abgemildert oder gar unwirksam gemacht werden, so dass a) ältere Menschen länger zu Hause leben, b) ihre Angehörigen und Nachbarn in deren Hilfeleistungen unterstützt werden und c) die Kosten für die Versorgung gesenkt oder zumindest stabil gehalten werden können.

Von Januar bis Oktober 2012 hat das BMBF außerdem ein Projekt zur ethischen Evaluierung jener Projekte gefördert, die konkrete Produkte und/oder Dienstleistungen im Bereich der altersgerechten Assistenzsysteme entwickeln sollen. Durch qualitative Interviews und Fokusgruppen mit (potenziellen) Anwendern, Pflegeanbietern, Systementwicklern u.a. sollten normative Konfliktfelder im Umgang mit altersgerechten Assistenzsystemen identifiziert und mögliche Lösungsstrategien entwickelt werden.

Als ein solches Konfliktfeld wurde Sicherheit identifiziert: Altersgerechte Assistenzsysteme sollen dazu beitragen, dass alte Menschen sicher in ihrer eigenen Wohnung leben können. Dies bezieht sich bspw. auf das, was man als Betriebssicherheit bezeichnen kann; das eigene Heim soll technisch so gestaltet werden, dass es seine Bewohner nicht gefährdet. Gleichzeitig sollen altersgerechte Assistenzsysteme die Bewohner eines Hauses aktiv vor Gefahren schützen – seien es jene durch Fehlhandlungen der Bewohner (das nicht abgestellte Bügeleisen, der nicht abgestellte Herd) oder jene Gefahren, die durch die gesundheitliche Situation der Bewohner verursacht werden, bspw. Stürze infolge von Herz-/Kreislaufproblemen, Fehlsichtigkeit bis hin zu dementiellen Veränderungen. Eine dritte Form der Sicherheit, für die altersgerechte Assistenzsysteme sorgen sollen, ist Versorgungssicherheit insbesondere in Bezug auf gesundheitliche Notfallhilfe ebenso wie für die reguläre Gesundheits- und Pflegeversorgung.

Die Analysen, die auf theoretischer wie empirischer Ebene im Rahmen der Evaluierung durchgeführt wurden, zeigten, dass die Erreichung der Zielvorgabe Sicherheit mit anderen Zielvorgaben und/oder normativen Ansprüchen kollidieren kann. Um Sicherheit in den drei oben genannten Ausprägungen herstellen zu können, muss bspw. tief in die Privatsphäre der betreffenden Personen eingegriffen werden. Zudem kann die Selbständigkeit und die Autonomie dieser Menschen gefährdet werden, wenn altersgerechte Assistenzsysteme dazu genutzt werden, die zu betreuenden Personen an bestimmten Handlungen zu hindern oder das Handeln dieser Menschen in eine bestimmte Bahn zu lenken. Weiterhin erwiesen Gespräche mit Pflegedienstanbietern, dass das Versprechen der Versorgungssicherheit ökonomisch wie personell nicht darstellbar wäre; ist dies richtig, könnten entsprechende Systeme allenfalls das subjektive Sicherheitsgefühl der betreffenden Menschen erhöhen, nicht aber die objektive Sicherheit. Außerdem bedeutete dies, dass die Hoffnung auf Kostensenkung oder zumindest -stabilisierung mithilfe solcher Systeme verfehlt wäre. Nicht zuletzt ist zu nennen, dass zumindest die sich Entwicklung befindlichen Systeme so hohe Anforderungen an die technische Infrastruktur stellen, dass sie in weiten Teilen Deutschlands – insbesondere in ländlichen Regionen, die als Einsatzgebiete vorgesehen sind – nicht genutzt werden könnten.

Im hier vorgeschlagenen Beitrag sollen 1) altersgerechte Assistenzsysteme begrifflich eingeführt, 2) exemplarische Beispiele aufgezeigt, 3) das ethische Evaluierungsprojekt vorgestellt und 4) einige Ergebnisse speziell am Beispiel des Konfliktfeldes Sicherheit präsentiert werden.

Literatur:
Depner, H., Dinkelacker, P., Erdmann, B., Fachinger, U., Ko-sinski, D., Kött, A., Kröger, K., Künemund, H., Lienert, K., Lut-herdt, S., Mollenkopf, H., Okken, P.-K., Schneiders, M., Schönfeld, H., Sust, C. A. (2010): Grundlegende Daten zu poten-ziellen AAL-Nutzern: Daten und Fakten. In: Meyer, S., Mollen-kopf, H. (Hrsg.): AAL in der alternden Gesellschaft. Anforderun-gen, Akzeptanz und Perspektiven. Analyse und Planungshilfen. Berlin, Offenbach: VDE, S. 6–39.
Weber, K., Haug, S. (2005): Demographische Entwicklung, Rati-onierung und (intergenerationelle) Gerechtigkeit – ein Problem-bündel der Gesundheitsversorgung. In: Joerden, J. C., Neumann, J. N. (Hrsg.): Medizinethik 5. Studien zur Ethik in Ostmitteleuropa, Bd. 8. Frankfurt am Main et al.: Peter Lang, S. 45-74


Technik UND soziale Sicherheit? Reflexive Governance in der Automatisierungsindustrie
Marc Mölders

Sicherheit ist, wie es im Call heißt, ein „prädominantes gesellschaftliches Gut“. Niemand könnte öffentlich für „weniger Sicherheit“ eintreten. Als Wert neben anderen bezeichnet Sicherheit eine Präferenz, bei der man kommunikativ davon ausgehen kann, nicht auf Widerstand zu stoßen. Doch der Begriff Präferenz zeigt bereits an, dass Werte selbst nichts festlegen, mehr noch, dass es oftmals um ein Abwägen von Präferenzen geht, denen im Einzelnen niemand Geltung verweigern würde, die im Paket aber oftmals nicht zu haben sind. Insbesondere im Hinblick auf den Zusammenhang von Sicherheit und Freiheit ist ein solches Abwägen oft diskutiert worden.

Die Bedeutung von Technik für eine erhöhte Sicherheit ist ebenso unübersehbar hoch. Auch die hiermit verbundene Ambivalenz ist gut dokumentiert: Einerseits schützt Technik vor (natürlichen) Gefahren (der Staudamm), andererseits produziert Technik zuvor inexistente Risiken (die Atomkraft). Damit sind nicht nur technische Gefahren und Risiken angesprochen, sondern auch soziale. Das Feld der Automatisierung steht hierfür wie kaum ein anderes, da Automatisierung erhebliche Veränderungen der Arbeitsumwelt mit sich bringt, die etwa völlig neue Arbeitsbedingungen („job shift“) oder gar den Verlust des Arbeitsplatzes („job loss“) bedeuten können. Hier kommt es also zu einem geradezu klassischen Wertekonflikt: soziale Sicherheit versus Effizienz versus Arbeitsplatzsicherheit.

Im Rahmen des BMBF-Spitzenclusters „Intelligente Technische Systeme OstWestfalenLippe“ (it’sOWL) spielen Automatisierungstechnologien eine Schlüsselrolle. Am Beispiel zweier Teilprojekte („Intelligentes autonomes Gefahrstofflager und Entnahmeterminal mit sensorbasiertem Condition-Monitoring“ und „Ressourceneffiziente selbstoptimierende Wäscherei“) wird zunächst gezeigt, dass sich die benennbaren Forschungsziele im Feld der Automatisierung verändert haben. Weder geht es hierin allein um effizientere Abläufe, die menschliche Arbeitskraft übersteigen, noch steht im Vordergrund, dass Maschinen menschliche Fehler vermeiden können (Eliminierung des „human factor“). Stattdessen soll Automatisierung hier die Funktion erfüllen, den Menschen aus dem Gefahrenbereich zu bringen.

Mag man hierin einen ersten Reflexionsschritt der Automatisierungsindustrie erkennen, so ist von besonderem Interesse, dass auch dem dann immer noch nahe liegenden Einwand, diese Form der technischen Sicherheit ginge auf Kosten sozialer („Automatisierung als Arbeitsplatzvernichter“), bereits reflexiv begegnet wird.

Ein (messbares) Kernziel des Clusters ist die Sicherung von 80.000 bestehenden und die Schaffung von 10.000 neuen Arbeitsplätzen in der Region Ostwestfalen-Lippe. Man begegnet also den Bedenken gegenüber einer Übervorteilung des Wertes „Sicherheit“ mit einem weiteren Wert. Angefangen bei den frühesten Studien des Office of Technology Assessment (OTA) haben zahlreiche TA-Analysen immer wieder auf die sozialen Nebenfolgen der Automatisierung industrieller Entwicklung insistiert. Offensichtlich muss nicht länger, wie es etwa Ansätze einer „Reflexive Governance“ fordern, zur Reflexion der Folgen des eigenen Handelns für andere angehalten werden – ebendies passiert bereits. TA kann dies einerseits als Gewinn verbuchen, andererseits kommt hier die Frage auf, ob (und ggf. wie) TA sich auf eine – gewissermaßen ausnahmsweise positive – Nebenfolgenabschätzung einlassen kann und will. Muss nun erst recht die plötzlich möglich erscheinende Verbindung von technischer und sozialer Sicherheit kritisch beobachtet werden? Wie kann dies mit der TA inhärenten Frühzeitigkeit in Einklang gebracht werden? Oder ist ein solches Vorgehen als Erfolgsmodell in den Kanon sozialverträglicher Technikgestaltung aufzunehmen, die es dann zu institutionalisieren gilt?

Diese und andere Fragen wird der Beitrag zur Diskussion stellen.


Privacy Impact Assessment als besondere Form der Technikfolgenabschätzung
Annett Rettke, Frank Pallas

Das Jahr 2012 markierte einen Wendepunkt europäischer Datenschutzgesetzgebung: Am 25. Januar stellte die Europäische Kommission ihren Vorschlag für eine „Verordnung zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr“ (im Folgenden: Datenschutz-Grundverordnung s-Entwurf, DSGVO-E) vor, die zukünftig die für diesen Bereich bislang maßgebliche Richtlinie 95/46/EG („Datenschutzrichtlinie“) ablösen soll. Auch wenn sich der Vorschlag bislang noch im Zu-stand intensiver Beratungen befindet, lassen sich schon jetzt einzelne Konzepte und Prinzipien identifizieren, die für die absehbare Zukunft europäischer Datenschutzpraxis be-sonders prägend sein werden. Neben Prinzipien wie „Privacy by Design“ und „Privacy by Default“ (die letztendlich unter dem Begriff des Systemdatenschutzes zumindest im deutschen Datenschutzrecht schon hinlänglich bekannt sind), einem in der Diskussion mittlerweile vernünftigerweise auf bekannte Löschansprüche zurückgeführten „Recht auf Vergessenwerden“ oder einem (informationsökonomisch motiviertem, weil Lock-in-Effekte zumindest reduzierendem) Recht auf Datenportabilität gehört hierzu insbesondere auch die in Art. 33 des Vorschlags normierte Datenschutzfolgenabschätzung (engl. privacy impact assessment, PIA, bzw. data protection impact assessment, DPIA).

Unter bestimmten Voraussetzungen, auf die hier nicht genauer eingegangen werden soll, muss die für die Verarbeitung personenbezogener Daten verantwortliche Stelle dem -nach zukünftig schon vor der tatsächlichen Inbetriebnahme entsprechender Technologien oder Einrichtungen eine „Abschätzung der Folgen der vorgesehenen Verarbeitungsvorgänge für den Schutz personenbezogener Daten“ durchführen (DSGVO-E, Art. 33, Abs. 1). Ziel dieser Datenschutzfolgenabschätzung ist es dabei, schon im Vorhinein „eine Bewertung der in Bezug auf die Rechte und Freiheiten der betroffenen Personen bestehenden Risiken sowie der geplanten Abhilfemaßnahmen, Garantien, Sicherheitsvorkehrungen und Verfahren“ vorzunehmen (DSGVO-E, Art. 33, Abs. 3) und dadurch Risiken für das Recht auf informationelle Selbstbestimmung bereits ex ante weitest möglich auszuschließen – entweder durch flankierende Einführung entsprechender Schutzmaßnahmen oder auch durch Nichteinführung der entsprechenden Technologie im Fall besonders großer, im Zuge der Folgenabschätzung identifizierter Risiken.

Ihrem Wesen nach stellt eine solche Datenschutzfolgenabschätzung eine besondere Form der weithin bekannten Technikfolgenabschätzung (technology assessment, TA) und hier insbesondere der auf die gestaltende Mitwirkung ausgerichteten konstruktiven Tech-nikfolgenabschätzung (constructive technology assessment, cTA) dar: Neue Technologien sollen untersucht, hinsichtlich ihrer zu erwartenden Auswirkungen prospektiv bewertet und mit dem Ziel einer möglichst hohen Gesellschaftsverträglichkeit genauer ausgestaltet werden. Als besondere Form der konstruktiven Technikfolgenabschätzung teilt die Datenschutzfolgenabschätzung jedoch auch deren prinzipiellen Probleme und Dilemmata.

Insbesondere ist hier das im Bereich der Technikfolgenabschätzung weithin bekannte sog. Collingridge- bzw. Kontrolldilemma zu nennen. Um eine Technologie von Beginn an datenschutzfreundlich zu gestalten, müssen die zu erwartenden Risiken für den Datenschutz mit Hilfe der PIA möglichst exakt bestimmt werden. Hierfür muss allerdings die zu untersuchende Technologie bekannt sein, was aufgrund von Vernetzung und soft-warebasierter Entwicklung jedoch gerade für potentiell datenschutzrelevante Technologien nur selten gegeben ist. Selbstwenn eine Technologie ursprünglich mit wohldefinierter Zielfunktionalität etc. – also Top-down – entworfen und implementiert wurde, kann diese zudem im weiteren Verlauf durchzusätzliche oder neue Anwendungen erweitert werden („Bottom-up Entwicklung“). Hinzu kommt die im Kontext potentiell datenschutzrelevanter Technologien übliche Vielzahl von an der Anwendung beteiligten Akteuren sowie die zunehmend dezentralen System- wie auch Entwicklungsstrukturen.

All dies lässt den Schluss zu, dass das im Bereich der Technikfolgenabschätzung weithin bekannte Kontroll- bzw. Collingridge-Dilemma auch im Kontext zukünftiger Datenschutzfolgenabschätzungen in besonderer Art und Weise auftreten wird: Eine fundierte Abschätzung der zu erwartenden (Datenschutz-) Folgen einer neuen Technologie und die darauf aufbauende Ableitung ggf. notwendiger Maßnahmen zur Steuerung bzw. Beeinflussung ist unter den genannten Bedingungen erst dann möglich, wenn sich die Technologie bereits in einem weit fortgeschrittenen Entwicklungsstadium befindet. Ist dies je-doch erreicht, ist eine steuernde Einflussnahme auf den Entwicklungsprozess zumindest mit beträchtlichen Kosten verbunden oder ggf. gar nicht mehr möglich.

Es stellt sich dann die Frage, inwiefern das aus der Theorie der Technikfolgenabschätzung weithin bekannte Kontrolldilemma bei der rechtlichen Verankerung des privacy bzw. data protection impact assessment in der zukünftigen Datenschutzgrundverordnung eine Rolle gespielt hat und wie diesem im Rahmen zukünftiger Datenschutzfolgenabschätzungen Rechnung getragen werden soll bzw. überhaupt werden kann.

Im Rahmen des hier vorgeschlagenen Vortrags soll diese Frage anhand des üblicherweise als Blaupause für die zukünftige methodische Vorgehensweise bei einer Datenschutzfolgenabschätzung angesehenen PIA-Leitfadens des Bundesamtes für Sicherheit in der Informationstechnik(BSI PIA-Leitfaden) und des dem Leitfaden zugrunde liegenden RFID-PIA-Frameworks beispielhaft diskutiert werden. Insbesondere soll hierbei darauf eingegangen werden, welche Mechanismen sowohl das Framework, als auch der PIA-Leitfaden vorsehen, um dem Kontrolldilemma zu begegnen und dieses zumindest abzuschwächen. Darüber hinaus sollen durch konsequentes Mapping des RFID-PIA-Frame-works und des BSI PIA-Leitfadens auf das etablierte Theoriefundament der cTA absehbare Probleme und Konflikte im Kontext der zukünftig obligatorischen Datenschutzfolgenabschätzungen identifiziert und auf gleichem Wege mögliche Lösungsansätze entwickelt und skizziert werden.


Pfade zu sicherer Informationstechnik in offenen Netzen
Arnd Weber, Dirk Weber

Problem
Immer mehr sensible Anwendungen sind mit dem Internet verbunden. Ängste entstehen, wenn das zukünftige smart electricity grid über das Internet gesteuert wird, also z.B. Smartphones Autobatterien laden oder entladen lassen. Könnte ein Angreifer alle Autobatterien leeren, alle Lichter ausschalten? Ängste entstehen auch, wenn mit mehreren Personenjahren Aufwand Schadprogramme wie „Stuxnet“ geschaffen werden, die Industrieanlagen beeinflussen (Falliere et al. 2010). Auch große, professionell geschützte Firmen, wie Coca Cola oder auch die Sicherheitsfirma RSA konnten sich nicht erfolgreich gegen Angriffe schützen (Bloomberg 2012; Weber, Weber 2011).

Technische Lösungen

Clean Slate
Man könnte einen Neuanfang machen und ein neues Netz mit neuen Computern aufbauen (clean slate). In diesem System wären ausschließlich digital signierte Programme zugelassen, vielleicht sogar nur solche, deren Korrektheit bewiesen wurde. Aber das löst nicht alle Probleme, weil man Hunderttausenden von Entwicklern die Möglichkeit geben müsste, Anwendungen zu erstellen. Damit würde wieder ermöglicht, versehentlich oder absichtlich Schadprogramme zu produzieren. Außerdem wäre es ökonomisch wünschenswert, existierende Anwendungen weiterlaufen zu lassen. Diese, wie auch ihre Betriebssystemen, sind so groß, dass eine Überprüfung und Verbesserung bis zum Nachweis des sicheren Funktionierens Jahre dauern würde, ihre Entwicklung stoppen und sehr teuer wäre.

Isolation
Damit bleibt, sensible Anwendungen von potentiell schädlichen zu isolieren. Die Kernidee ist, Anwendungen in einer Art Container oder in einem sog. Compartment einer Virtualisierungssoftware von anderen zu trennen. Ggf. würde ein Container z.B. mit einem ausgewählten Server kommunizieren. Mit diesem grundsätzlichen Lösungsansatz sind mehrere Probleme verbunden:
• Entscheidend ist, dass der ganze Computer sicher ist. In der Hardware dürfen keine neuartigen „Trojanischen Pferde“ verborgen sein. Das ist mit der Herstellung vieler Komponenten in Ländern wie China nicht ausgeschlossen (vgl. CPNI 2012). Deshalb müsste die Herstellung entsprechend transparent und kontrolliert, z.B. in Europa stattfinden.
• Es gibt wenig Erfahrung mit dem Bau fehlerfreier oder bewiesenermaßen sicherer, komplexer, offener Computersysteme. Grundsätzlich besteht die Möglichkeit, dass ein neuartiger Angriff durchgeführt wird. Z.B. gibt es side‐channels (Seitenkanalattacken): ein Schadprogramm könnte versuchen, Informationen in einem „isolierten“ Container von außen abzuhören (Heiser et al. 2012). Oder einem Schadprogramm gelingt es, Zugangsdaten wie Passwörter durch Abhören von Sensoren herauszufinden. Hier besteht die Schwierigkeit darin, dass neue Angriffe entstehen können, an die vorher niemand gedacht hat. Grundsätzlich könnte auch eine beliebig große Anzahl von Erbauern eines hochsicheren Systems einem Irrtum unterliegen, bestochen sein o.ä. Auf derartigen Angriffsmöglichkeiten beruht die übliche Aussage von Sicherheitsfachleuten, dass es keine hundertprozentige Sicherheit gäbe.
• Die Lösung muss praktisch benutzbar sein. Grundsätzlich hätte man kein Clipboard zwischen den Containern. Wenn man aber kein intelligentes Clipboard schafft, könnten die Anwender die sicheren und die unsicheren Teile mit einem Tunnel zu verbinden versuchen, z.B. über Email (Weber et al. 2009).
• Die Kanäle zwischen den Rechnern müssen gesichert werden. Das ist einerseits mit heutiger Verschlüsselungstechnik gut möglich, andererseits könnten Angreifer sich theoretisch auf die Brechung dieser Techniken konzentrieren, wenn andere Schwächen behoben wären. Geheimdienste brüsteten sich bspw. gelegentlich damit, vertrauliches mathematisches Wissen zu haben (vgl. Simmons 1986). Es gibt nun mehrere Möglichkeiten, Sicherheit durch Isolation herzustellen.
• Zum einen könnten lediglich Anwendungen samt ihren Daten voneinander isoliert werden (vgl. www.bizztrust.de/en/product.html).
• Zum anderen könnten Betriebssysteme isoliert werden.
• Denkbar wäre auch, für verschiedene Anwendungen separate Chipsets zu nutzen und mit einer gemeinsamen Nutzerschnittstelle (I/O) zu bedienen.

Schließlich kann die Sicherheit mehr oder weniger stark erhöht werden. Im Prinzip gibt es drei Stufen:
1. Business as usual: Computer werden allmählich verbessert. Vgl. die Nutzung von Trusted Computing Modulen, die zunehmende Nutzung von Virtualisierungssoftware, die Unterstützung von Virtualisierung durch „memory curtaining“ in der Hardware etc. Diese Konzepte sind teilweise, aber nirgendwo komplett umgesetzt (vgl. Grawrock 2006) und die Implementation auch nicht vollständig auf Fehlerfreiheit überprüft.
2. Eine starke Verbesserung durch die Verwendung getesteter oder zertifizierter Systeme. Ein Beispiel ist das militärische Security‐Enhanced Linux.
3. Schließlich gibt es den Weg, die Sicherheit von Komponenten und Systemen zu beweisen (Heiser et al. 2010, 2012), der auch vom US Militär geprüft wird (DARPA 2013).

Rolle der Technikfolgenabschätzung
Für die Technikfolgenabschätzung bedeutet dies, die verschiedenen Lösungsansätze hinsichtlich ihrer Sicherheit, Ökonomie und ggf. Benutzbarkeit zu bewerten.
Wichtig für die Technikfolgenabschätzung ist ferner die Einschätzung der Restrisiken hochsicherer Lösungen. Ziel sollte sein, die Bürger über diese umfassend zu informieren. Für Anwendungen, die bspw. über einen covert channel angegriffen werden könnte, könnte man eine entsprechende hard‐wareseitige Trennung fordern. Wenn Sorgen geäußert werden, dass der Übermittlungskanal zwischen zwei Computern entschlüsselt wird, könnten TA‐Forschung und Techniker darauf hinweisen, dass tausende von Mathematikern weltweit vergeblich versucht haben, Schwächen zu finden. Entsprechend könnte jedes Restrisiko analysiert und bewertet werden.
Technikfolgenabschätzung könnte damit in Kooperation mit den Spezialisten aus den technischen Feldern IT‐Systeme entwerfen, deren theoretische Restrisiken nach bestem Wissen irrelevant für bestimmte Anwendungen sind.
Technikfolgenabschätzung sollte über die Optionen und Restrisiken informieren. Durch diese Öffentlichkeit können Gesetzgebungsorgane und andere Akteure im politischen Raum politischen Druck aufbauen, um sicherere Systeme einzuführen. Öffentlicher Druck, insbesondere in der Form von Vorschriften, Haftungsregelungen o.ä. hätte den Vorteil, dass Herstellern, die sicherere Lösungen anbieten, kein ökonomischer Nachteil erwächst, wie dies heute der Fall ist.
Insgesamt würde Technikfolgenabschätzung damit technische und sozioökonomische Pfade aufzeigen zu praktisch nicht aus dem Netz angreifbaren IT‐Systemen.

Danksagungen
Wir danken Michael Decker, Reinhard Heil und Ulrich Riehm für Anregungen zu früheren Versionen dieses Abstracts.

Literatur:
Bloomberg: Coke Gets Hacked And Doesn’t Tell Anyone. 5.11. 2012. www.bloomberg.com/news/2012‐11‐04/coke‐hacked‐and‐doesn‐t‐tell.html
CPNI: National Infrastructure Protection. Emerging Technologies. April 2012. www.cpni.gov.uk/documents/publications/2012/2012014‐national_infrastructure_protection_emerging_technologies.pdf
Darpa: Information Innovation Office. Access 17.3.2012. www.darpa.mil/Our_Work/I2O/Programs/Clean‐slate_design_of_Resilient_Adaptive_Secure_Hosts_%28CRASH%29.aspx
Falliere, N.; O Murchu, L.; Chien, E.: W32.Stuxnet Dossier. 2010. www.symantec.com/connect/blogs/w32stuxnet‐dossier
Grawrock, D. The Intel Safer Computing Initiative. Intel Press, 2006.
Heiser, G., Andronick, J., Elphinstone, K., Klein, G., Kuz, I. und Leonid, R. The Road to Trustworthy Systems. Communications of the ACM, 53(6), 107–115, June, 2010.
Heiser, G.; Murray, T.; Klein, G.: It's Time for Trustworthy Systems. IEEE Security & Privacy 10(2): 67‐70, 2012.
Simmons, G.: Cryptology. In: Encyclopædia Britannica 1986, S. 913‐924B
Weber, A., Weber, D. und Lo Presti, S. Requirements and Design Guidelines for a Trusted Hypervisor User Interface. Vortrag auf: Future of Trust in Computing. Berlin, Germany, 30 June – 2 July, 2008. Proceedings veröffentlicht von Vieweg & Teubner, Wiesbaden 2009.
Weber, A.; Weber, D.: Isolating Spears. Karlsruhe, July 28, 2011. www.open‐hypervisor.org/index.php/HPvisor/news/33/


Nanosicherheit
Mit Astrid EPP (BfR), Torsten FLEISCHER (ITAS-KIT), Renate PAUMANN (BMLFUW), Robert PIRINGER (AUVA), Alexander PÓGANY (BMVIT), Eva SINNER (BOKU), Alexander ZILBERSZAC (BMG)

Block I: Trends der Regulierung
Materie | Instrumente | Standards | Definition
• Wohin gehen die Trends, welche Instrumente eignen sich für die Regulierung?
• Zeichnet sich ein Trend beim Einsatz von gesetzlicher und freiwilliger Maßnahmen ab? Wird der EU Code of Conduct in Zukunft eine Rolle spielen?
• Welche Materie ist derzeit und wird zukünftig Hot Topic der Regulierung sein?
• Wie geht es mit den Verordnungen auf EU-Ebene weiter? Welche Bedeutung haben die Verordnungen für die nationale Ebene? [z.B. Novel Food-Verordnung]
• Nano-Definition: Was soll eine gute Nano-Definition erfüllen, was kann sie tatsächlich erfüllen? Was bedeutet das für den Vorschlag der Kommission?

Block II: Die Rolle der beteiligten Akteure
Behörden | Wissenschaft
• Welche Rolle haben die Behörden im Regulierungsdiskurs?
• Wie groß ist der Spielraum der Behörden, auf nationaler Ebene selbst für Sicherheit zu sorgen? Welche Maßnahmen sie können treffen? Welche Voraussetzungen sind dazu notwendig?
• Welche Rolle haben Forschung und Wissenschaft im Regulierungsdiskurs? Was können, was sollen sie beitragen?
• Welche Rolle kann die Technikfolgenabschätzung im Regulierungsdiskurs spielen? Was tragen Projekte wie Nano-Trust oder andere zu diesen Prozessen bei?
• Wie kann wissensbasierte Gesellschafts- und Politikberatung im Falle der Regulierung neuer Technologien gestaltet werden und welche Voraussetzungen muss man dafür schaffen?
• Welchen Stellenwert hat die Unabhängigkeit der Forschung?
• In welcher Form sollten Wissenschaft und Behörden in Beziehung treten?

Block III: Risikokommunikation
Governance | Gestaltung | Akteure: intern & öffentlich
• Wie sollte die erfolgreiche Risikokommunikation zwischen Behörden und Wissenschaft gestaltet sein?
• Welche Rolle soll die Öffentlichkeit im Governance-Prozess spielen?
• Wie sollte Risikokommunikation mit der Öffentlichkeit aussehen? Welche Themen können bzw. sollen Gegenstand öffentlicher Kommunikation sein? Wer sollte kommunizieren, und vor allem wie?
• Wie stark soll die Öffentlichkeit eingebunden werden? Wie soll man mit den Ergebnissen umgehen?


 

Parallel-Sessions III:


FP7 Security Research – Meeting current societal security needs?

Johann Cas


Public perception of security and privacy (PRISMS)
Michael Friedewald

The PRISMS project analyses the trade-off model between privacy and security and aims to devise a more evidence-based perspective for reconciling privacy and security, trust and concern. PRISMS will conduct both a multi-disciplinary inquiry into the concepts of privacy and security and their relationships and an EU-wide survey to determine whether people evaluate the introduction of security technologies in terms of a trade-off. We will present hypotheses that will be tested in the survey.


Public perception of security and privacy (PACT)
Emilio Mordini

PACT (Public perception of security and privacy: Assessing knowledge, Collecting evidence, Translating research into action) is a 36 month collaborative project, partly funded by the European Commission within the scope of the FP7 Security Programme. We will present the preliminary results of the project.


Multidimensional Decision-Making with Participatory Elements: The case of security technologies
Walter Peissl

Sicherheit wird in vielen Lebensbereichen mittlerweile groß geschrieben. Meist stehen technische Lösungen im Zentrum des Interesses, wobei allerdings die zugrunde liegenden Sicherheitsbedrohungen oft nur unklar definiert werden. Die Auswirkungen von Sicherheitsinvestitionen können jedoch vielfältig sein und verschiedene Gruppen betreffen. Entscheidungen über die Anschaffung von Sicherheitslösungen sollten aber nicht ausschließlich nach dem schwer einzuschätzenden, erwarteten Sicherheitsgewinn und dem ökonomischem Kalkül allein getätigt werden. Mit dem Projekt DESSI (Decision Support System for Security Investments) wurde ein System zur Entscheidungsunterstützung erarbeitet, das es möglich macht, Investitionen in die Sicherheit anhand verschiedener Dimensionen zu beurteilen und so ein umfassend gestütztes, multidimensionales Bild von unterschiedlichen Lösungen zu erhalten.

Wesentlicher Teil von DESSI ist aber auch die partizipative Herangehensweise, die sehr früh sowohl ExpertInnen, InteressenvertreterInnen als auch Betroffene in die Entscheidungsfindung einbindet. Entscheidungen für Sicherheitsinvestitionen beinhalten immer eine Wahl zwischen verschiedenen Lösungsansätzen. DESSI macht diese Auswahl transparent, indem es das Sicherheitsproblem genau analysiert und beschreibt sowie alternative Sicherheitsinvestitionen darstellt und ihre möglichen Auswirkungen anhand von sieben verschiedenen Dimensionen, wie Sicherheitsgewinn, Ethik und Grundrechte, sonstiger rechtlicher Rahmen, soziale Folgen, Akzeptabilität, politische Relevanz und Ökonomie bewerten lässt. Die unterschiedlichen Lösungsvarianten werden in einem partizipativen Prozess unter Einbeziehung von ExpertInnen und Interessensgruppen bewertet. Dadurch soll trotz unterschiedlicher Bedrohungswahrnehmung ein breites Spektrum von Ansichten berücksichtigt werden. Dieser Prozess wird durch ein webbasiertes SW-Tool unterstützt.

DESSI kann als „Short-Track“ Version mit Hilfe des Web-Tools von EntscheidungsträgerInnen im öffentlichen Bereich, von Unternehmen und NGOs wie auch von EntwicklerInnen von Sicherheitslösungen selbst eingesetzt werden. Für größere Investitionen und Sicherheitslösungen von gesamtgesellschaftlicher Relevanz ist der Einsatz von DESSI unter Beiziehung externer „DESSI-ModeratorInnen“ notwendig, damit das volle Potenzial dieser innovativen Methode ausgeschöpft werden kann. Diese unterstützt eine transparente und partizipative Entscheidungsfindung und nimmt auf die Mehrdimensionalität von gesellschaftlich relevanten Investitionsentscheidungen Rücksicht. DESSI kann so zum öffentlichen Diskurs über Sicherheit beitragen.

Dieser Beitrag zur TA’13 betrifft sowohl die Ausschreibungsschwerpunkte „Sicherheit und Vertrauen“ als auch „Sicherheit und Trandisziplinarität“. DESSI als methodische Innovation bezeichnet einen möglichen Weg, wie „pro-aktive TA“ Entscheidungen auf unterschiedlichen Ebenen unterstützen können, statt getroffene Entscheidungen ex-post zu evaluieren; sie zeigt auch auf, wie grundlegende Herangehensweisen von TA – wie systemisches Denken, Interdisziplinarität, multiperspektivischer Zugang und partizipative Methoden – auch auf Unternehmensebene Platz greifen können. Im Rahmen der Präsentation sollen einerseits die grundlegenden Funktionen und der Ablauf von DESSI mitsamt den einzelnen Dimensionen und Kriterien zur Abschätzung der verschiedenen Sicherheitsinvestionen vorgestellt und andrerseits erste Erfahrungen mit DESSI anhand von Fallbeispielen aus Österreich, Dänemark und Norwegen präsentiert werden.

Eine Diskussion zum möglichen Einsatz der Methode jenseits von Sicherheit(stechnologien) und damit der mögliche Beitrag zur Methodologie der TA schließt die Präsentation.


Assessing the costs and benefits of surveillance technology, including ethical and human rights harms
Martin Scheinin

SURVEILLE (Surveillance: Ethical Issues, Legal Limitations, and Efficiency) is a 39-month collaborative project, partly funded by the European Commission within the scope of the FP7 Security Programme. We will present the current status of the project.


Die institutionelle Trennung von Risikomanagement und Risikobewertung im gesundheitlichen Verbraucherschutz – ein Mechanismus zur Herstellung von (gefühlter) Sicherheit
Astrid Epp, Mark Lohmann, Gaby-Fleur Böl, Andreas Hensel

„BürgerInnen moderner Gesellschaften vertrauen auch in der Frage der Herstellung von Sicherheit auf ExpertInnen.“ Tun sie das wirklich? Der folgende Beitrag beleuchtet anhand eines Beispiels aus dem gesundheitlichen Verbraucherschutz die Frage, unter welchen Bedingungen Verbraucherinnen und Verbraucher Experten und den für die Herstellung von Sicherheit verantwortlichen Institutionen vertrauen.

Nicht zuletzt die jüngsten Geschehnisse um Pferdefleisch oder auch um falsch deklarierte vermeintliche Bio-Eier, sondern auch die wiederholten Funde von Dioxin in Eiern und Pflanzenschutzmittelrückständen in Obst und Gemüse stellen das Vertrauen deutscher Verbraucherinnen und Verbraucher in Lebensmittel auf die Probe. Dabei steht regelmäßig neben der Lebensmittelsicherheit auch die Vertrauenswürdigkeit der für den gesundheitlichen Verbraucherschutz verantwortlichen Institutionen auf dem Prüfstand. Die öffentliche Empörung ist nachvollziehbar und verständlich, wenngleich auch das Ausmaß, in dem die Sicherheit von Lebensmitteln in Zweifel gezogen wird, in keinem vernünftigen Verhältnis zu den tatsächlichen Risiken steht, die von Lebensmitteln heute ausgehen können. Lebensmittel sind heute sicherer denn je. Trotzdem hielten es nach einer Eurobarometer-Befragung aus dem Jahr 2010 43 % der Deutschen für sehr bis ziemlich wahrscheinlich, dass sie Lebensmittel essen, die ihre Gesundheit beeinträchtigen. Insgesamt 62 % der Deutschen machten sich laut dieser Umfrage in hohem bzw. in gewissem Maße Sorgen wegen der Lebensmittelsicherheit. Und 86% der Deutschen forderten, dass die Behörden in der EU mehr unternehmen sollten, um zu gewährleisten, dass Lebensmittel sicher sind. Nicht zuletzt diese Zahlen verdeutlichen die Lücke, die häufig zwischen den wissenschaftlichen Fakten und der Einschätzung vieler Verbraucherinnen und Verbraucher klafft und die regelmäßig zu Vertrauenskrisen führt. Damit sind Vorfälle gemeint, bei denen es weniger um eine tatsächliche oder potentielle Gesundheitsgefährdung geht, sondern in erster Linie darum, dass das Vertrauen von Verbraucherinnen und Verbrauchern erschüttert wird.

Diese Vorfälle sind aber ebenfalls ernst zu nehmen, da sie negative gesellschaftliche Effekte haben können, die mit dem eigentlichen Ereignis nur wenig zu tun haben. Dazu zählt z.B. der Verzicht auf potentiell ‚riskante’ Lebensmittel, wobei ein solcher Verzicht sowohl gesundheitlich und ökonomisch viel schwerwiegendere Folgen haben kann als der ursprüngliche Auslöser. Vor diesem Hintergrund rechtfertigen auch sogenannte gefühlte Risiken staatliches Handeln. In diesem Fall zielt staatliches Handeln auf die (Wieder-)Herstellung von Vertrauen. Vertrauen ist in modernen Gesellschaften ein Mechanismus zur Reduktion von Komplexität. Ohne Vertrauen wäre Handeln in modernen Gesellschaften nahezu unmöglich. Viele Prozesse und so auch die Herstellung von Lebensmitteln sind inzwischen so komplex, dass Verbraucherinnen und Verbraucher kaum noch die Chance haben, diese zu durchdringen. Dies hat auch eine Befragung des Bundesinstituts für Risikobewertung (BfR) aus dem Jahr 2010 zur Wahrnehmung von Pestizidrückständen in Lebensmitteln gezeigt, in der zwar 86 % der Befragten der Ansicht waren, dass Pflanzenschutzmittel die Produktivität der Landwirtschaft erhöhen, gleichzeitig aber nur 23 % die Ansicht vertraten, dass Pflanzenschutzmittel notwendig für die Lebensmittelproduktion seien. Je weiter sich Verbraucherinnen und Verbraucher von den Prozessen der Lebensmittelherstellung entfernen, umso wichtiger wird das Vertrauen der Verbraucher in die Institutionen, die für die Sicherheit der Lebensmittel bürgen.

Dem Verlust bzw. der Erosion von Vertrauen kann auf verschiedene Weise entgegen getreten werden. Von zentraler Bedeutung ist hier auf der einen Seite größtmögliche Transparenz in der Kommunikation. Diese gilt nicht nur für den Fall einer Krise, sondern auch für den Normalfall (Routine). Eine offene, frühzeitige und umfassende Kommunikation über die Prozesse der Lebensmittelproduktion wie auch über mögliche Risiken kann Informationen vermitteln, auf die im Krisenfall zurückgegriffen werden kann (z.B. über Zuständigkeiten der einzelnen Institutionen oder über den Prozess der Risikobewertung). Gleichzeitig werden durch eine offene Risikokommunikation die Grundlagen für eine erfolgreiche Kommunikation in einer Krise gelegt. Neben dem Was und Wie der Kommunikation ist ein weiterer entscheidender Faktor aber das Wer der Kommunikation, also die Frage nach dem Sender der Kommunikation. Häufig ist es weniger entscheidend, wie umfangreich kommuniziert wird, als dass dem Sender einer Botschaft vertraut wird, sei diese ggf. auch noch so kurz. Relevant für den Erfolg einer Kommunikation ist daher, ob es sich bei der kommunizierenden Institution um eine sogenannte Trusted Institution handelt, also einer Institution, der vertraut wird. Da davon ausgegangen werden muss, dass die Unbedenklichkeit des Lebensmittelsortiments auch durch umfangreiche Kommunikation häufig kaum noch vermittelbar ist, wird der zweite Aspekt, die Vertrauenswürdigkeit der verantwortlichen Institutionen, umso wichtiger.

Wie aber wird eine Institution zu einer trusted, also einer vertrauenswürdigen Institution und damit zu einer Institution, die auf der Grundlage des in sie gesetzten Vertrauens das Sicherheitsgefühl von Verbraucherinnen und Verbrauchern verstärken kann? Um zum einen das Vertrauen der Verbraucherinnen und Verbraucher in die Strukturen des Verbraucherschutzes wieder zu stärken und zugleich den Umgang mit Risiken zu optimieren und effizienter zu gestalten, wurde daher im Jahr 2002 in Deutschland mit dem Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) und dem unabhängigen Bundesinstitut für Risikobewertung (BfR) eine institutionelle Trennung von Risikobewertung und Risikomanagement vollzogen. Sicher gestellt wurde damit, dass die wissenschaftliche Bewertung von Risiken im Lebensmittelbereich frei von jeglichen wirtschaftlichen oder politischen Interessen ist und zugleich eine Institution gegründet, die unter Absehung dieser Interessen frühzeitig über den Prozess und die Ergebnisse einer Risikobewertung kommuniziert. Der geplante Beitrag wird diese institutionelle Trennung von Risikobewertung und Risikomanagement im gesundheitlichen Verbraucherschutz als Mechanismus zur Herstellung von Vertrauen als Voraussetzung für ein Sicherheitsgefühl beschreiben.


Barometer Sicherheit in Deutschland (BaSiD)
Bruno Gransche, Ina Jacoby, Peter Zoche

Das Forschungsprojekt Barometer Sicherheit in Deutschland (BaSiD) erarbeitet verschiedene Dimensionen von (Un-)Sicherheit und ein auf diesen basierendes Monitoring zu objektivierten und subjektiven Sicherheiten in Deutschland. Das BaSiD-Modul des Fraunhofer ISI fokussiert dabei auf die subjektive Einschätzung von Sicherheit sowie die reziproke Dynamik von Technikgenese und (Un-)Sicherheitserwartungen hinsichtlich neuer, in der Entwicklung befindlicher Technologien. Gefragt wird nach den Effekten zwischen Technisierungsprozessen und (Un-)Sicherheitserwartungen vor dem Hintergrund der Hypothese, dass subjektive Sicherheit als umso höher eingeschätzt wird, je adäquater die eigenen Handlungsmöglichkeiten in Bezug auf eine jeweilige Situation beurteilt werden. Konkrete Abhängigkeiten dieser Angemessenheitseinschätzung von neuen Technologien und Technisierungsgraden werden insofern unterstellt, als Technik klassischerweise als Erweiterung der jeweiligen Handlungssphäre konzipiert wird, diese aber auch einschränkt.

Diese Form der situativen Selbsteinschätzungen im Spannungsfeld zwischen Sicherheitsempfinden, im Entstehen befindlicher Technologien und angemessenen Handlungsmöglichkeiten wurde 2011/2012 vom Fraunhofer ISI mit Hilfe von partizipativen Bürgerworkshops untersucht.

Konkret wurde besagte Fragestellung in einem inhaltlich-methodischen Dreischritt erforscht: erstens in einem Open Space Format am Beispiel von (zukünftiger) intelligenter Videoüberwachung, zweitens in einer Fokusgruppe bzw. einer leitfadenorientierten Gruppendiskussion am Beispiel verschiedener Szenarien des zukünftigen Einsatzes unbemannter Fluggeräte (UAVs/Drohnen), drittens in einem Co-Design Format am Beispiel möglicher Web 2.0 Anwendun-gen. Im Mai 2013 liegen die fertigen Projektergebnisse vor, die im Rahmen der TA13 vorgestellt werden sollen. Die Auswertung der Ergebnisse aus den Bürgerworkshops ergibt eine erhebliche Entsprechung mit Aspekten, Bewertungen und relevanten Fragestellungen aus der Fachliteratur der sozialwissenschaftlichen Sicherheits-/Risikoforschung. Im Gegensatz zu den groß angelegten (semi-)quantitativen Methoden anderer Module des BaSiD-Projektes konnten durch die partizipative Methodik des ISI-Moduls besonders Erkenntnisse aus Diskussionsdynamiken, Reaktionen der Gruppe auf spezifische Aussagen, Meinungsänderungen und Ambivalenzen in der subjektiven Bewertung von Handlungsmöglichkeit, Technisierungsgrad, Technikgestalt, Technologiereife, gesamtgesellschaftlichen Implikationen von zukünftiger Sicherheitstechnik (z.B. Verhaltensnormierungen durch Mustererkennung, Verantwortungsverlagerung) etc. untersucht werden.

Für eine Gliederung der vielfältigen Ergebnisse des Projektes wurde ein Sicherheitsquadrant entwickelt, der Situationen abhängig von den jeweiligen persönlichen Sicherheitsbewertungen in sicher, vermeintlich sicher, vermeintlich unsicher und unsicher strukturiert.

An der TA13 sollen Kernergebnisse des BaSiD-Projektes, also Erkenntnisse über die subjektive Sicherheitsbewertung in Bezug auf die Einschätzung der Angemessenheit der eigenen Handlungsmöglichkeiten je nach Situation sowie bezüglich zukünftiger Entwicklungstendenzen im Entstehen befindlicher Technik präsentiert werden.


Eigensichere Systeme – Ansätze für die biologische Sicherheit in frühen Entwicklungsphasen
Bernd Giese, Christian Pade, Henning Wigger, Arnim von Gleich*

Die Anwendungen der Synthetischen Biologie erregen zwar noch nicht so stark die öffentliche Aufmerksamkeit, wie die der Gentechnik, ihre Möglichkeiten gehen jedoch aufgrund des Anspruches umfassender planvoller Neukonstruktion bzw. Umgestaltung und der hierfür zusammenfließenden Kenntnisse aus der Systembiologie und der Bioinformatik, der (Bio-)Chemie sowie der Molekularbiologie und Genetik weit über die der Gentechnik hinaus (Benner and Sismour 2005, Purnick and Weiss 2009, Heinemann and Panke 2006).

Der Beitrag soll die mit der Synthetischen Biologie verbundenen neuen Gefährdungsdimensionen aufzeigen, in die aktuell diskutierten Strategien zur Herstellung von Sicherheit in diesem am meisten fortgeschrittenen Bereich der (angewandten) biologischen Forschung einführen und darauf aufbauend vielversprechende Gestaltungsmöglichkeiten identifizieren. Zudem wird auf die Chance hingewiesen, gerade die frühen Entwicklungsphasen von Technologien für die Erarbeitung von Gestaltungsmöglichkeiten von Entwicklungspfaden zu nutzen, die zu neuen, möglichst eigensicheren Technologien führen, mithilfe derer aufwendige spätere Sicherheitsmaßnahmen vermieden werden können. Die Aufgabe besteht also darin, in frühen Entwicklungsstadien einer Technologie, die durch große Gestaltungsspielräume aber vorerst auch große Wissensdefizite bezüglich späterer Wirkungen gekennzeichnet ist, risikoarme und zugleich verheißungsvolle Entwicklungspfade zu identifizieren.

Mit den potenziell eingriffstiefen Vorhaben (Gleich 1997) und Technologien der Synthetischen Biologie, aber auch mit deren möglicher Verbreitung bzw. deren etwaigem Missbrauch sind entsprechend große Befürchtungen verbunden (Dana et al. 2012, ETC 2007, FoE, ICTA and ETC 2012). Um diesen zu begegnen, sind mittlerweile eine Reihe von Sicherheitsstrategien vorgeschlagen worden (Schmidt 2010, Marlie-re 2009). Der Vorteil einiger dieser Ansätze liegt in ihrem bezogen auf den Entwicklungsprozess frühen Eingreifen bei der Wahl der molekularen Basis bzw. der Gestaltung der grundlegenden technischen Eigenschaften der angestrebten Konstrukte. Diese bereits an den Funktionalitäten ansetzenden, vorbeugenden und gefährdungsmindernden Ansätze könnten einen Entwicklungskorridor öffnen, bis spätere, sich auf eine bessere Wissensbasis stützende, regulative Sicherheitsmaßnahmen greifen.

Im Projekt SynBioTA – einer Innovations- und Technikanalyse der Synthetischen Biologie – wurden diese Ansätze untersucht und mit Forschenden im Feld der Synthetischen Biologie diskutiert. Eine wesentliche Quelle der neuen potenziellen Funktionalitäten liegt in den erweiterten Kombinationsmöglichkeiten, die mithilfe der (planbaren) Veränderung und Neukonstruktion von Elementen biologischer Systeme möglich geworden sind. Die Grundlage hierfür ist, neben der technischen Entwicklung in der apparativen Laborausstattung der Lebenswissenschaften, der Beitrag der in den letzten Jahren stark vorangeschrittenen Bereiche Bioinformatik und Systembiologie. Da konkretes Wissen über Anwendungsziele und -kontexte zur Abschätzung der Expositionsmöglichkeiten und Eintrittswahrscheinlichkeiten noch nicht vorhanden ist, können zwar die Risiken vorerst kaum untersucht werden, die Gefährdungspotenziale der mit der Synthetischen Biologie ermöglichten neuen Funktionalitäten können und sollten jedoch durchaus schon in den Blick genommen werden.

Um Sicherheitsstrategien zu identifizieren, die innerhalb der Möglichkeiten der Synthetischen Biologie die größten Aussichten auf Nutzenrealisierung bei gleichzeitig kleinstem Gefährdungspotenzial bieten, müssen die grundlegenden Eigenschaften von Organismen – wie die Fähigkeit zur Entwicklung, zur Vermehrung und die Möglichkeit zum Austausch von Erbinformation mit natürlichen Organismen – in die Bewertung möglicher Ansätze einbezogen werden.

Ausgehend von dieser Herleitung der Gefährdungspotenziale sollen die auf sie abgestellten Sicherheitsstrategien vorgestellt und hinsichtlich ihres sicherheitsfördernden Beitrages miteinander verglichen werden. Gleichzeitig wird jedoch kritisch gefragt, ob nicht auch mit diesen Strategien wiederum neue Dimensionen der Gefährdung verbunden sind. Davon ausgehend wird ein möglicher Entwicklungspfad identifiziert und zur Diskussion gestellt, welcher unter explizitem Einbezug bestehender Unsicherheiten einen vorsorgenden Umgang mit der Synthetischen Biologie ermöglicht und gesellschaftlich nicht gewünschte bzw. nicht akzeptable Auswirkun-gen vermeiden hilft.

Literatur:
Benner, S. A. & A. M. Sismour (2005) Synthetic Biology. Nature Reviews Genetics, 6, 533-543.
Dana, G. V., T. Kuiken, D. Rejeski & A. A. Snow (2012) Four steps to avoid a synthetic-biology disaster. Nature, 483, 29-29.
ETC. (2007) Extreme Genetic Engineering: An Introduction to Synthetic Biology.ed. ETC Group. ETC Group.
FoE, F. o. t. E. U., I. C. f. T. A. ICTA & E. G. ETC. (2012) The Principles for the Oversight of Synthetic Biology. Friends of the Earth US (FoE); International Center for Technology Assessment (ICTA); ETC Group (ETC).
Gleich, A. v. (1997) Ökologische Kriterien der Technik- und Stoffbewertung. In Technikfolgenabschätzung als politische Aufgabe, ed. R. G. v. Westphalen, 499-570. München/Oldenburg.
Heinemann, M. & S. Panke (2006) Synthetic Biology—Putting Engineering into Biology. Bioinformatics, 22, 2790-2799.
Marliere, P. (2009) The farther, the safer: a manifesto for securely navigating synthetic species away from the old living world. Systems and Synthetic Biology, 3, 77-84.
Purnick, P. E. & R. Weiss (2009) The second wave of synthetic biology: from modules to systems. Nat Rev Mol Cell Biol, 10, 410-22.
Schmidt, M. (2010) Xenobiology: A new form of life as the ultima-te biosafety tool. Bioessays, 32, 322-331.

*in alphabetischer Reihenfolge aufgelistet mit Ausnahme von A. von Gleich


Sicherheitsdilemmata und Technikfolgenabschätzung in der nuklearen Technik
Wolfgang Liebert, Jan C. Schmidt

Sicherheit ist für nukleare Technologien, die immer „Risikotechnologien“ darstellen, essentiell. Während die Community der Technikfolgenabschätzer in jüngerer Vergangenheit überwiegend neuartigere Technologiebereiche anderer Art adressiert hat, findet sich in der öffentlichen Debatte eine umgekehrte Bewegung – zu Recht: Öffentlichkeit, die Betreiber nuklearer Anlagen, die Community der Nuklearforscher sowie die staatlichen und überstaatlichen Regulatoren sind heute wieder für nukleare Sicherheitsfragen sensibilisiert. Einige der damit einhergehenden Herausforderungen für heutige TA – (1) Anlagensicherheit, (2) Versorgungssicher-heit, (3) Proliferationssicherheit – werden in diesem Beitrag diskutiert:

(1) Die „Sicherheitskultur“ ist – zumindest im Nuklearbereich – durch technopolitische Grundannahmen geprägt und begrenzt. Die Sicherheitsüberwachung durch staatliche Aufsichtsbehörden hat sich in den letzten Jahrzehnten weitgehend an der sicherheitstechnisch relevanten – im ggf. lange zurückliegenden Genehmigungsverfahren überprüften – Auslegung der Anlagen orientiert. Spätestens nach Fukushima ist aber klar, dass dies zu kurz gedacht ist: auslegungsüberschreitende Unfallszenarien müssten in die Sicherheitsüberprüfungen einbezogen werden. Hier ist eine weiter gehende, interdisziplinär ausgerichtete, prospektiv-antizipative Sicherheitsforschung als Teil der TA gefordert – auch wenn diese politisch offenbar (noch) nicht gewollt erscheint. Dass eine solche umfassende Sicherheitsforschung noch nicht auf der Tagesordnung steht, zeigt sich illustrativ daran, was im Rahmen der so genannten „Europäischen Stresstests“ behandelt wurde – und was nicht. Gefordert wird aber eine Orientierung am „Stand von Wissenschaft und Technik“, der sich allerdings in den vergangenen Jahrzehnten weiter entwickelt hat. Daher ist ebenfalls zu erhellen, was die durchaus als üblich geltende Orientierung am „Stand von Wissenschaft und Technik“ bei derzeitigen Sicherheitsbetrachtungen und -überprüfungen eigentlich bedeutet – und was sie nicht bedeutet. Es stellt sich auch die Frage, ob technische Sicherheitssysteme eingeführt werden könnten, die unbeabsichtigte, katastrophale Folgen effektiv vermeiden. Auf dieser Basis lässt sich fragen, ob die heute wahrnehmbare Sicherheitskultur im nukleartechnologischen Bereich Überzeugendes für den Schutz von Mensch und Umwelt leistet oder ob sie fragwürdig ist.

(2) Ein gängiges Argument für die Nutzung nuklearer Technologien im Bereich der Stromproduktion ist ihr Beitrag zur Erhöhung der Versorgungssicherheit. TA müsste hier aber zugleich die relevanten Sicherheitsdilemmata der Kernenergienutzung in den Blick nehmen, wie beispielsweise das hohe Katastrophenpotential, die Langzeitgefahren durch radioaktive Abfälle, die Proliferationsrisiken und einiges mehr. Die Stichhaltigkeit des Arguments selbst sollte – so fordern wir in unserem Beitrag – durch eine umfassende Sicherheitsforschung als Teil Prospektiver TA kritisch überprüft werden, etwa: Wie ist die Abhängigkeit von Uranimporten im Vergleich zu anderen Energieträgern einzuschätzen? Sind Lücken oder Begrenzungen in der Uranversorgung der Zukunft auszumachen? Welchen Einfluss hätte eine massive Expansion der Kernenergie? Haben die großen Einheiten von Nuklearreaktoren ihren Platz in einem weitgehend mit regenerativen Energietechnologien zu gewährleistenden Energiesystem der Zukunft? Befördert oder behindert die alte Leitidee von großen Grundlasteinheiten den Weg in ein nachhaltiges Zukunftsszenario oder ist sie unverzichtbar?

(3) Seit einigen Jahren werden die Proliferationsgefahr und die Notwendigkeit der Generierung von mehr Proliferationssicherheit im Nuklearbereich stärker in den Blick genommen. Zumeist wird auf eine unter bestimmten politisch gesetzten Rahmenbedingungen (Nichtverbreitungsvertrag) mögliche technische Generierung von Sicherheit durch Safeguards (insbes. Überprüfungsmaßnahmen der Internationalen Atomenergieorganisation) gesetzt. Sicherheitsforschung als Teil von TA müsste danach fragen, welche Limits solche technisch vermittelten Maßnahmen und Ansätze haben. Können sie Proliferationssicherheit garantieren? Eine Alternative stellt die Erzeugung von relativer Proliferationsresistenz durch eine entsprechende technische Auslegung von Nuklearanlagen dar, die im Kern eine proliferationsresistente Gestaltung nuklearer Technologien anstrebt. Hier ist neben anlagenspezifisch durchaus vorhandenen Potentialen dieses Ansatzes auch nach Begrenzungen der Erfolgsaussichten zu fragen. Eine Mischform aus beiden Ansätzen, „Safeguards by De-sign“, muss ebenfalls auf den Prüfstand der TA-Analyse. Für alle diese Ansätze gilt, dass strukturell wirksame Limits der internationalen Regulationsinstrumente von Bedeutung sind: Was ist international geregelt und kann Gültigkeit beanspruchen und was (noch) nicht? Weiterhin ist zu fragen, ob nicht der verbreitete Glaube, Proliferationssicherheit sei technisch generierbar, die latente Unsicherheit und Proliferationsgefahr ungewollt erhöht.

Ziel unseres Beitrag ist es, anhand der drei Beispiele aus dem nukleartechnologischen Bereich Einblicke zu gewinnen in grundlegende Dilemmata technisch generierter Sicherheit: Welche technischen Dimensionen werden unzureichend in den Blick genommen, um tatsächlich ein notwendiges Mehr an Sicherheit ermöglichen zu können? Welche nicht-technischen Dimensionen sollten Beachtung finden? Dabei wollen wir zeigen, dass die Dilemmata nicht vollständig aufgelöst werden können. Sicherheit durch Technik erweist sich damit eher als eine Illusion denn als überzeugende Leitidee. Umgekehrt gilt: Solange an der nuklearen Risikotechnologie festgehalten wird, ist Sicherheit ohne Technik, d.h. auch ohne die Technik sicherer gemacht wird, ebenfalls eine (technikferne) Illusion. In der Tradition unseres Konzepts einer Prospektiven Technikfolgenabschätzung (ProTA) liegt es, den wissenschaftlich-technischen Kern selbst zu adressieren. Dieser Kern sollte sicherer gemacht werden. Insofern fordert ProTA gerade auch Sicherheitsanforderungen in den Kern von Technik zu bringen. Dies ist sogar notwendig, wenn TA dazu beitragen will, Gestaltungsoptionen auszuweisen und zu nutzen.

Die Aufgabe von ProTA ist es – neben konkreten Analysen und der Erstellung von Beratungsleistungen – in kritischer Absicht die Denkmuster derjenigen offenzulegen, die behaupten, nahe am wissenschaftlich-technischen Kern zu argumentieren. Die Herausforderung für die TA besteht also darin, sich auf die (problematische technikfixierte) Sicherheitsphilosophie der Technikoptimisten zunächst einzulassen, um sie dann „von innen“ kritisch wenden zu können. Um es paradox und programmatisch für ProTA zu formulieren: Um die gesell-schaftliche Perspektive auf die Sicherheitsthematik zu stützen und zu stärken, ist eine (kritische) wissenschaftlich-technische Perspektive einzunehmen und von hier aus Erweiterungen ins Gesellschaftliche und Kulturelle vorzunehmen.


Die wissenschaftliche Vermessung von Sicherheit und Freiheit – Methodologische und epistemologische Herausforderungen ethischer und sozialwissenschaftlicher Begleitforschung im Sicherheitssektor
Stefan Weidemann

In welchem Verhältnis stehen Sicherheit und Freiheit? Dieser und den vielen mit ihr zusammenhängenden Fragen wird spätestens seit 9/11 und dem Aufkommen der Debatte um neue Sicherheitsmaßnahmen und den „Krieg gegen den Terror“ von verschiedenen Seiten große Aufmerksamkeit zuteil. Dabei stehen sich, zugespitzt formuliert, die Vertreter zweier Positionen gegenüber. Die eine Seite vertritt die Auffassung, dass es aufgrund neuer Bedrohungen notwendig sei, gewisse Freiheitsrechte einzuschränken, um der sogenannten Schutzpflicht des Staates nachkommen zu können. Auf der anderen Seite wird argumentiert, dass mit den zur Disposition gestellten Freiheitsrechten die gesamte demokratische Lebensform in ernste Gefahr geriete und daher weitgehende ‚Sicherheitsmaßnahmen‘ zu unterbleiben hätten. Es geht also letztlich um die Frage, was höher zu werten und daher dringender zu schützen sei: Sicherheit oder Freiheit. Zu zeigen, dass dieser unterstellte Antagonismus die komplexen Wechselwirkungen von Sicherheit und Freiheit auf unzulässige Weise reduziert, ist ein Ziel des avisierten Vortrags. Hierzu werden die Konzepte Sicherheit und Freiheit auf Basis einer ideengeschichtlichen Herangehensweise theoretisch erörtert und anschließend mit Fallbeispielen bundesdeutscher Politik der inneren Sicherheit (informationstechnische und personelle Vernetzung von Sicherheitsbehörden, qualitative und quanti-tative Ausweitung von Videoüberwachung des öffentlichen Raums, Luftsicherheits-gesetzgebung) in Beziehung gesetzt. Dabei soll gezeigt werden, dass Sicherheit und Freiheit in einem komplexen, dialektischen Verhältnis zueinander stehen und insofern zwar im Einzelfall konkurrieren können, gleichzeitig jedoch als gemeinsame Konstituenten der Autonomie des Individuums angesehen werden müssen.

In einem Zweiten Teil wird dargelegt, welche methodologischen und epistemologischen Implikationen diese Betrachtungsweise für die ethische und sozialwissenschaftliche Begleitforschung im Sicherheitssektor birgt. Im Fokus steht dabei die apriorische Bewertung neuer Sicherheitstechnologien im Rahmen ihrer Entwicklung in öffentlich geförderten Technologieprojekten. Unter Rückgriff auf die Betrachtungen des ersten Teils und die Erfahrungen aus Projekten mit Beteiligung des Centre for Security and Society wird argumentiert, dass einerseits im Bereich der Identifikation und Analyse intendierter und nicht-intendierter Auswirkungen neuer Maßnahmen und Technologien (und damit im ‚Kerngeschäft‘ der Technikfolgenabschätzung) erhebliche, besonders jedoch nicht ausschließlich methodologische, Forschungsdesiderate bestehen. Andererseits wird argumentiert, dass das klassische, methodische Instrumentarium einer empirisch-analytisch ausgerichteten Sozialwissenschaft darüber hinaus nicht ausreicht, um die normativen Fragen hinsichtlich der Abwägung von Sicherheit und Freiheit zu beantworten, die sich aus ihrem dialektischen Verhältnis notwendigerweise ergeben. Vielmehr benötigt die ethische und sozialwissenschaftliche Begleitforschung im Sicherheitssektor neben einer weiteren Fundierung ihres empirisch-analytischen Instrumentariums ein epistemologisch ähnlich plausibles Modell zur Beantwortung normativer Fragen. Welche methodologischen und epistemologischen Problemfelder dabei zu bewältigen wären und wie Ansätze zu einer Lösung aussehen könnten soll schließlich in einem kurzen Ausblick skizziert werden.


Computertechnologien & das Verhältnis von Sicherheit, Vertrauen & Wissen
Judith Simon

Ein Blick auf unsere alltäglichen wie auch wissenschaftlichen Wissenspraktiken offenbahrt, wie sehr unser Wissen von Vertrauen in andere Menschen abhängt. Ohne dieses Vertrauen in das, was uns andere erzählen, würden wir weder die grundlegendsten Fakten unseres eigenen Lebens wie beispielsweise unser Geburtsdatum kennen, noch wäre wissenschaftliche Wissensproduktion möglich. Andererseits in Vertrauen das Gegenteil von Sicherheit, von Gewissheit – wenn wir vertrauen sind wir gerade per definitionem nicht sicher, ob wir nicht absichtlich oder unabsichtlich getäuscht werden. Die ist das zentrale Dilemma im Verhältinis von Wissen, Vertrauen und Sicherheit: Während wir einerseits in nahezu jeder Hinsicht von unserem Vertrauen auf die Aussagen anderer abhängen, ist doch andererseits der Status dieses so erhaltenen Wissens und die Funktion von epistemischen Vertrauen selbst höchst fragwürdig. Doch die Dinge stellen sich jedoch noch komplizierter dar. In gegenwärtigen epistemischen Praktiken wird Vertrauen nicht nur in Menschen gesetzt, sondern auch in Technologien, Prozessen, Institutionen und Wissensprodukte selbst. Insbesondere Computertechnologien, sowie spezieller Informations- und Kommunikationstechnologien (ICT) spielen eine wichtige Rolle, weil ihnen nicht nur selbst vertraut werden kann, sondern sie immer umfassender Vertrauensbeziehungen zu und zwischen allen anderen Entitäten vermitteln.

Tatsächlich ist das Verhältnis von Sicherheit und Vertrauen ein Kernthema im Kontext der Informations- und Kommunikationstechnologien im Speziellen, bzw. der Computertechnologie im Allgemeinen. In dem Klassiker “Mechanizing Proof: Computing, Risk, and Trust” untersucht Donald MacKenzie’s die Anfänge der Künstlichen Intelligenzforschung und unterzieht das Wechselverhätnis zwischen Computer Technologie, Risiko und mathematischem Beweis einer sorgfältigen historischen sowie soziologischen Analyse und schließt: „Yet the human community is now not the only ‚trustworthy agent‘ to which to turn: it has been joined by the machine.[…] Modernity‘s ‚trust in numbers‘ can, it appears, lead back to a grounding not in trust in people, but trust in machines.“ (Mackenzie 2001:12)

Konkret vergleicht er menschliche, mathematische Beweisführung mit der in der Mitte des 20. Jahrhunderts aufkommenden formalen, automatisierten Beweisführung durch Algorithmen. Das Problem, welches sich durch diese neuen Methoden stellt besteht darin, wie man wissen kann, dass ein angeblicher, algorithmisch erstellter Beweis auch wirklich korrekt ist. Eine ähnliche Schlussfolgerung bezüglich der grundlegenden Funktion von Vertrauen für Wissen und der sich daraus ergebenden Unsicherheit zieht Paul Humphreys in seinem Buch “Extending Ourselves: Humphreys (2004): Extending ourselves: Computational Science, Empiricism, and Scientific Method”. Er beschreibt darin das Problem der epistemic opacity, d.h das Problem der Nichtnachvollziehbarkeit von Berechnungen aufgrund ihrer Komplexität und stellt die Frage ab wann wir anfangen zu vertrauen und aufhören zu wissen in unserer Nutzung von Simulationen und anderen komplexen mathematischen Verfahren in den Wissenschaften.

Dieses Problem des Verhältnisses von Wissen, Vertrauen und Sicherheit ist zunächst einmal ein epistemologisches, addressiert es doch den Kern sowie die Grenzen von Wissen. Es hat jedoch weitreichendere TA-relevant Folgen: einerseits müssen wir heutzutage permanent Computertechnlogien vertrauen, weil ein Großteil unserer Lebenswelt technologisch mediiert ist. Andererseits wissen wir nicht ob diese Technologien vertrauenswürdig sind. Mit MacKenzie’s Worten: “Most aspects of our private and social lives – our safety, the integrity of the financial system, the functioning of utilities and other services, and national security – now depend on computing. But how can we know that this computing is trustworthy?” (MacKenzie 2001, cover). Vertrauenswürdigkeit und dessen Abschätzung kann also zwischen Vertrauen und Sicherheit vermitteln, Praktiken effektiver epistemischer Wachsamkeit können dazu beitragen, dass wir die Grenzen unseres Wissens unter der Bedingung von Vertrauen besser ziehen können. Aus diesen theoretischen Einsichten ergeben sich praktische Implikationen für den Umgang mit verschiedenen Wis-sensformen im TA-Kontext. Konkret stellt sich die Frage wie verantwortlich mit politisch nachgefragtem Wissen (Stichwort: Energiewende & Rohstoffprognosen; Klimaszenarien; Machbarkeitsstudien; Simulationen usw) umgegangen werden soll und kann. Zudem kann und sollte TA dazu beitragen epistemisch verantwortliche Praktiken und Methoden im Umgang mit wissenschaftlichen Wissen zu entwicklen (cf. Simon 2013).

Neben diesen grundsätzlicheren Fragen nach den Bedingungen wissenschaftlichen Wissens in einer technologischen Welt, stellen sich natürlich auch mundänere Frage des Verhältnisses von Wissen, Vertrauen und IuK-Technologien. Auch hier ist ein Mangel an Transparenz ein Grundproblem, auch wenn in diesem Fall Intransparenz nicht notwendigerweise eine erzwungene, bzw unerwünschte ist (epistemic opacity im Falle von komplexen wissenschaftlichen Berechnungen), sondern häufig eine willentliche (z.B. wird die Funktionsweise von Suchalgortihmen vor Nutzern verborgen). Auch wenn diese wenn aufgrund der Wahrung von Ges-chäftsgeheimnissen eine nachvollziehbare Praxis ist, so wird sie doch dadurch problematisch, dass versteckte Biases in Such- oder Recommender-Algorithmen nicht erkennbar sind, aber Auswirkungen auf unsere epistemischen Praktiken und damit unsere Selbstbestimmtheit haben. Hier stellen sich für die TA Fragen der IKT governance (cf. Pagallo 2013), welche über das Unterzeichnen endloser Nutzungsbedingungen hinausgehen (cf. Hildebrandt (2013) zur den Möglichkeiten von legal protection by design, sowie Lobet-Maris & Broad-bent (2013) zum Konzept der grauen Ökologie.

Das Verhältnis von Computertechnologien, Sicherheit, Vertrauen und Wissen ist ein spannungsreiches und zwei Formen von Intransparenz sind von besonderer Bedeutung für eine Analyse dieses Spannungsfeldes aus der Perspektive der Technikfolgenabschätzung: die inhärente, aber unerwün-schte epistemische Undurchsichtigkeit im Fall komplexer Berechnungen sowie die erwünschte Intransparenz durch Blackboxing aus Wettbewerbsgründen. Beide Probleme stellen Herausforderungen für TA, welchen ich in diesem Vortrag nachgehen möchte.

Literatur:
Hildebrandt, M. (2013). "Onlife, The Public(s) and Legal Protec-tion by Design." The Onlinfe Initiative. from ec.europa.eu/digital-agenda/sites/digital-agenda/files/Contribution_Mireille_Hildebrandt.pdf.
Humphreys, P. (2004). Extending Ourselves: Computational Science, Empiricism, and Scientific Method. . New York, Oxford University Press.
Lobet-Maris, C. and S. Broadbent (2013). "For a grey ecology." The Onlinfe Initiative. from ec.europa.eu/digital-agenda/sites/digital-agenda/files/Contribution_Broadbent-Lobet.pdf.
MacKenzie, D. (2001). Mechnanizing Proof. Computing, Risk, and Trust. Cambridge, MIT Press.
Pagallo, U. (2013). "Good Onlife Governance: Law, Spontaneous Order, and Design." The Onlinfe Initiative. from ec.europa.eu/digital-agenda/sites/digital-agenda/files/Contribution_Pagallo.pdf.
Simon, J. (2013). "Distributed Epistemic Responsibility in a Hy-perconnected Era." The Onlinfe Initiative. from ec.europa.eu/digital-agenda/sites/digital-agenda/files/Contribution_Judith_Simon.pdf.


Selbstbestimmte Fremdbestimmung? Innovationsdynamiken konvergierender Technologien
Petra Schaper-Rinkel

Sicherheit ist ein politisch umkämpfter Begriff, mit dem Politik gemacht wird. Diskurse über Sicherheit bilden zentrale Ansatzpunkte, an denen sowohl politische und soziale Verhältnisse als auch technologische Entwicklungen verhandelt und konfiguriert werden. Eine wichtige Frage ist vor diesem Hintergrund, welche Konzepte von Sicherheit derzeit hohe Chancen haben, hegemonial zu werden und sich damit auch politisch und technologisch durchzusetzen.

In der sozialwissenschaftlichen Kritik lassen sich zwei analytische Stränge feststellen. Einmal die Analyse direkter staatlicher Sicherheitspolitiken auf Feldern wie der privatisierten Kriegsführung, der Terrorismusbekämpfung oder der Migrationskontrolle. Zum anderen die Analyse indirekterer Politiken in Bereichen wie dem individuellen Risikomanagement und der Gesundheitsprävention. In den technologiepolitischen Konzepten zur Konvergenz von Nano-, Bio-, Informations-technologien und Kognitionswissenschaften (NBIC) sind diese beiden Politiken eng verbunden, soll doch die Konvergenz zukünftig sowohl der Militär- und Sicherheitsforschung dienen, als auch revolutionäre medizinische Anwendungen in der Zukunft ermöglichen. Beide Bereiche treffen sich dort, wo in hohem Maße individuelle Daten in umfassenden Systemen vernetzt werden. Ein Feld auf dem sich zeigt, dass die Konvergenz von Technologien zugleich eine de facto-Konvergenz von widersprüchlichen Sicherheits- und Freiheitskonzepten bedeutet, ist die Verbindung von Web 2.0-Anwendungen mit Fitnessangeboten und Medizintechnik. Während im Bereich der Sammlung individueller Daten durch staatliche Einrichtungen eine Vielzahl von Datenschutzbestimmungen darauf ausgerichtet ist, der Dynamik des Datensammelns das Prinzip der Datensparsamkeit als Gegenpol entgegenzusetzen, hat die private Datensammlung und –veröffentlichung von Web 2.0-Nutzern keinen begrenzenden Gegenpol. In der Konvergenz des Web 2.0 mit individuellem Monitoring, medizinischen Forschungstechnologien und neuen Hoffnungen in die Gentechnik (Direct-to-consumer genetic testing) entstehen Anwendungen, die sich im Hinblick auf Sicherheit, Freiheit und Selbstbestimmung konträr deuten lassen: Den Nutzern, die ihre Daten zu Vergleichszwecken in Portalen speichern, gibt die elektronische Selbstvermessung (Quantified Self-Bewegung) Sicherheit und wird als Modus der freien Wahl wahrgenommen, individuelle Gesundheitsrisiken kontrollieren zu können und gleichzeitig mit ihren Daten zu bahnbrechenden Erfolgen in der zukünftigen Medizin beitragen zu können (z.B. 23andWe). Die Kritiker sehen darin das Ende von Freiheit und eine Gefahr für Datensicherheit.

Nicht nur die Bewertung, auch die Konzepte von Sicherheit und Freiheit, die bei dieser Bewertung aufeinandertreffen, sind gegensätzlich, da sie sich aus der Nutzerperspektive auf einen individuellen Bezugsrahmen mikro-ökonomischer Perspektive beziehen und während sich die kritische Position aus einer gesellschaftlichen Perspektive speist, die kumulative und nicht-intendierte Effekte des individuellen Handelns als Grundlage der Bewertung hat. Hier zeigt sich, wie wichtig eine interdisziplinäre, aber insbesondere auch transdisziplinare Herangehensweise der Analyse und Bewertung ist. Sicherheit als Querschnittsmaterie kann weder auf die Logik einzelner Disziplinen noch einzelner Dimensionen reduziert werden. Da die globalen Plattformen, auf denen Nutzer ihre Daten speichern und veröffentlichen, nur begrenzt durch nationalstaatliche Regulierung gestaltbar sind, ist es zentral, Formen der gesellschaftlichen Auseinandersetzung zu entwickeln, die sich der Perspektive der Nutzer annimmt.

Ein Ansatzpunkt ist dabei, die Konstruktion von Zukunft selbst in den Blick zu nehmen, da sich sowohl die affirmative als auch die kritische Position stark aus Annahmen über die Dynamik technologischer und gesellschaftlicher Entwicklung speist. Ein solches „Technofutures Assessment“ würde die Ausweitung von TA-Aktivitäten bedeuten, bei der TA einen gesellschaftspolitischen Diskurs über die Ziele, die mit den jeweiligen Technologien zukünftig erreicht werden sollen und die Erwartungen an Innovationsdynamiken initiieren würde. Zentral wäre dabei, nicht nur die technologischen Erwartungen zu thematisieren, sondern auch die politischen und gesellschaftlichen Dynamiken sichtbar zu machen und explizit zur Debatte zu stellen, die implizit in technofuturistischen Diskursen enthalten sind. Sicherheit und Freiheit sind zwei zentrale Begriffe, die im Kontext von gesundheitsorientierten Web 2.0-Technologien als Selbstbestimmung und als selbstbestimmter Umgang mit individuellen Risiken thematisiert werden, aber eine weit über das individuelle hinausreichende politische Bedeutung haben (z.B. Gentests im Kontext von Migrationspolitik). In diesem Beitrag werden die widersprüchlichen Konzepte des Zusammenhangs von Sicherheit, Freiheit und Selbstbestimmung am Beispiel von Biotechnologien und Web 2.0-Technologien diskutiert.


Social Media und Social Media Analysen im Spannungsfeld von Sicherheit, Ethik und Datenschutz: Eine multidimensionale Einschätzung von „Kosten“ und Nutzen innovativer Technologien
Karin Rainer, Igor Pejic, Bernhard Jäger, Wolfgang Polt

Social Media Dienste (SMDs) und Web 2.0-Anwendungen sind für breite Bevölkerungsschichten aus dem alltäglichen Leben unserer komplexen Gesellschaft nicht mehr wegzudenken, die Verwendung von Internet und der mobile Zugang zu Informationen, virtuellen sozialen Netzwerken, Unterhaltung und online-Dienstleistungen nehmen stetig zu. Der Einsatz von Social Media Diensten zur Steigerung der öffentlichen Sicherheit befindet sich jedoch noch in einem frühen Reifungsstadium. Neben umfangreicher neuer Möglichkeiten für den Sicherheitsbereich, z.B. durch neue Wege der strategischen Informationsbeschaffung und –verwertung sowie Kommunikation und Interaktion von Sicherheitsorganisationen mit BürgerInnen, Medien und relevanten Institutionen müssen jedoch auch negative Entwicklungen abgeschätzt werden, die diese Technologien und ihr Einsatz mit sich bringt.

Vor dem Hintergrund der vielfältigen Anwendungsmöglichkeiten von SMDs für Sicherheit und Prävention (z. B. zur frühzeitigen Detektion von Suizid- oder Amokankündigung, Verabredung zu kritischen Ereignissen wie Unruhen oder Straftaten, Suche nach Vermissten oder ZeugInnen, Prävention durch Information und aktuelle Warnungen) müssen intensiv und kritisch die „Kosten“ und Risiken dieser Innovationen bedacht werden und in Forschungs- und Entwicklungsprojekte mit einbezogen werden. Auf der Grundlage der gegenwärtigen technologischen Möglichkeiten und sich laufend entwickelnder Social Media Nutzung als ein gängiges Mittel zum Einbezug der Bevölkerung wird dieser Artikel sich vor allem mit der praktischen Umsetzung zur Generierung umfassender, abgesicherter Ergebnisse zu den Chancen und Nutzenpotenzialen aber auch den Risiken und Gefahren von Social Media Diensten im Sicherheitssektor auseinandersetzen. Beispiele aus der gängigen Praxis in Ländern wie den USA, Singapur oder Australien illustrieren die Gratwanderung, auf der sich die gegenwärtige Sicherheitslandschaft durch den Einsatz von Social Media Applikationen oder –Analysen befindet. Fragen nach Schutz der Privatsphäre (etwa bei der Publikmachung von Wohnorten von straffällig Gewordenen), der Abwägung zwischen den Interessen effektiverer Kriminalitatsprävention und -aufklärung und der Möglichkeit von gesellschaftlichen 'Kollateralschäden' die entstehen können, wenn Gesellschaften via Sozialer Medien breitflächig in polizeiliche Ermittlungen eingebunden werden. Die Gefahr von gesellschaftlich sanktioniertem Spitzeltum, Verleumdung und Rufschädigung sowie Fragen der Datenweitergabe, -einsicht und -verfügbarkeit sind hier von großer Relevanz. De Fallstudien über den Praxiseinsatz von Social Media und der Verwendung dieser Daten werden auf diese Probleme hin abgefragt und in ihrer Bedeutung für den möglichen Einsatz in Österreich diskutiert.

Die multidimensionale und multimodale Ergebnissicherung durch den laufenden Einbezug von ethischen, sozialen und datenschutzrechtlichen Aspekten ergänzt die technischen, wirtschaftlichen sowie praxisbezogenen Fragestellungen, wie es im Projekt SMD4Austria – gefördert im Sicherheitsforschungs-Förderprogramm KIRAS durch das Bundesministerium für Verkehr, Innovation und Technologie (BMVIT) – exemplarisch durchgeführt wird. Eine umfassende Kosten-Nutzen-Abschätzung, die vor allem auch auf ethische und datenschutz-spezifische Gesichtspunkte wie auch auf die generelle Akzeptanz der Maßnahmen durch die Bevölkerung ausgerichtet ist, ist das Ziel dieser umfassenden, praxisorientierten Forschungsarbeit.

Das Projekt SMD4Austria wird innerhalb des Sicherheitsfor-schungs-Förderprogramm KIRAS durch das Bundesministeri-ums für Verkehr, Innovation und Technologie (bmvit) geför-dert.