To read the full-text of this research, you can request a copy directly from the authors.
Abstract
Big Data, Nudging, Verhaltenssteuerung: Droht uns die Automatisierung der Gesellschaft durch Algorithmen und künstliche Intelligenz? Ein Appell zur Sicherung von Freiheit und Demokratie.
To read the full-text of this research, you can request a copy directly from the authors.
... But what does it really mean when artificial intelligence is not programmed line by line by humans but automatically by the computer itself with continuous optimization progress [5]? ...
... smart grids, smart cities or smart government) already have an influence on privacy. Helbing [5] warns that privacy, human dignity and other principles of fairness and justice will ultimately give way to a new arbitrariness because the underlying algorithms cannot function completely error-free. ...
More than 200 years ago, the scientist Alexander von Humboldt noted in his travel diaries that "everything is interconnectedness", when he was fascinated by nature and the phenomena observed. The view of nature has become much more detailed through the knowledge of phenomena and natural processes, which led to a more precise view of nature shaped by Humboldt. Technological progress and the artificial intelligence of highly developed computer systems are upsetting this view and changing the established world view through a new, unprecedented interaction between man and machinery. Thus we need digital axioms and comprehensive rules and laws for such autonomous acting systems that determine human interaction between cybernetic systems and biological individuals. This digital humanism should encompass our relationship to nature, our handling of the complexity and diversity of nature and the technological influences on society in order to avoid technical colonialism through supercomputers.
... . And Stephan Hawking (2016) believes, that "computers can, in theory, emulate human intelligence -and exceed it". After Jaron Lanier (2013 and it is not ruled out, that some rationally unjustified enthusiasm affects the transhumanistic movement. And we should come to a new formulation of the old idea of humanism, if we resist the fantasies of AI. Helbing et. al.(2017) asked the questions, if we have to expect a smart nation or a smart planet, when we will suffer smartphones, smart homes, smart factories, and smart cities. And what does that mean, when AI will not be programmed by humans line by line but automatically by the computer itself with continuous progress of optimization? Their study led to ...
... The more advanced the self-learning processes of neural networks are, the less their users can control the learning outcomes generated by those networks, which in turn makes the autonomously acting computers uncontrollable. So Helbing (2017) warns that, ultimately, privacy, human dignity, and other principles of fairness and justice will yield to a new arbitrariness, because those underlying algorithms cannot operate completely without errors. ...
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
... Trivialisierung meint, allgemein formuliert, zunächst die Vereinfachung der Nutzung von Computertechnik durch, aus Anwendersicht reduzierte und unauffällige, Schnittstellen zwischen Mensch und Technik ("Tippen" und "Wischen") sowie die Vereinigung zahlreicher Funktionalitäten (Applikationen für Instant Messaging, E-Mail, Fahrassistenz, [24] zu "gläsernen" Nutzern werden, wenn "gierige Institutionen" [6] ihre Netzwerkmacht missbrauchen, um über Nutzerprofile Konsum anzuregen. Ebenso kritisch ist die Möglichkeit einzuschätzen, "gläserne" Bürger zu erzeugen, etwa im Zuge einer stärkeren Überwachung durch staatliche Organisationen und Geheimdienste, die Computer infiltrieren und Funkzellenabfragen nutzen (Stichwort: "Bundestrojaner"; [13] 5 ). Die Besonderheit digitaler Angriffsflächen liegt darin, dass diese wenig(er) offensichtlich und nur vermittelt erfahrbar sind. ...
... Diese "informellen" Beiträge analysieren Ungleichgewichte und/oder Machtasymmetrien beim Einsatz von Digitaltechnik und unterbreiten Vorschläge zu deren Abbau. Insbesondere die Forschung zu Big Data, Plattformen und neuen Öffentlichkeiten ist hier zu nennen [13,18]. Unter den Aspekten Autonomie, Entscheidungsfreiheit und Unabhängigkeit werden sowohl Forderungen nach informationeller Selbstbestimmung und Partizipation, als auch nach von Nutzern gesteuerten Informationsfiltern und der institutionellen Verankerung von Kontrollinstanzen für algorithmische Entscheidungsfindung formuliert. ...
Nutzer und Verbraucher sind unterschiedlichen Gefahren bei der Verwendung von Computertechnologien ausgesetzt und benötigen Schutz. Der Schutzgedanke umfasst nicht nur sozial-regulativen Datenschutz durch Vorschriften im Umgang mit personenbezogenen Daten, sondern auch funktional-kognitive Aspekte, durch die Anwender in ihren Kompetenzen und ihrer digitalen Souveränität gestärkt werden. Aktuell ist eine Verantwortungsdiffusion für Datenschutz (im weiten Sinn) zu beobachten. In deren Folge werden Zuständigkeiten abgelehnt, delegiert und automatisiert. Eine Systematisierung der Verantwortlichkeiten für einen holistischen Datenschutz unterscheidet sowohl zwischen Fremd- und Selbstverpflichtung als auch zwischen Fremd- und Selbstermächtigung. Es zeigt sich, dass insbesondere Maßnahmen zur Selbstermächtigung von Nutzern und Verbrauchern bislang kaum existieren und/oder institutionalisiert sind.
... At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, poses serious problems for democracy and freedom (see, e.g., Helbing et al., 2017). The ability to assess the credibility of information and its sources has never been more important. ...
Data science as a practical science has been conceived to address tangible problems in science, technology and society. Educating students in data science goes beyond teaching about algorithms, skills of manipulating data sets, selecting and applying appropriate analyses, and creating and interpreting visual representations of data. It also involves raising a critical understanding of how data are produced and how they can be used for particular purposes, including the role of context in interpreting data. It emphasizes developing an awareness for data ethics, and considering the implications for policy and society when powerful algorithms are used. Participation in democracy, in today’s digital and datafied society requires the development of a series of transversal skills which need to be fostered in educational institutions through critically oriented pedagogies that interweave technical data skills and practices together with statistical and media literacies. Based on an analysis of trends and needs to protect democratic values in a datafied society and on own reflections of teaching practices this paper gives recommendations on designing data science courses to develop informed citizen.
... At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, poses serious problems for democracy and freedom (see, e.g., Helbing et al., 2017). The ability to assess the credibility of information and its sources has never been more important. ...
Data science as a practical science has been conceived to address tangible problems in science, technology and society. Educating students in data science goes beyond teaching about algorithms, skills of manipulating data sets, selecting and applying appropriate analyses, and creating and interpreting visual representations of data. It also involves raising a critical understanding of how data are produced and how they can be used for particular purposes, including the role of context in interpreting data. It emphasizes developing an awareness for data ethics, and considering the implications for policy and society when powerful algorithms are used. Participation in democracy, in today’s digital and datafied society requires the development of a series of transversal skills which need to be fostered in educational institutions through critically oriented pedagogies that interweave technical data skills and practices together with statistical and media literacies. Based on an analysis of trends and needs to protect democratic values in a datafied society and on own reflections of teaching practices this paper gives recommendations on designing data science courses to develop informed citizen.
... At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, poses serious problems for democracy and freedom (see, e.g., Helbing et al., 2017). The ability to assess the credibility of information and its sources has never been more important. ...
Data science as a practical science has been conceived to address tangible problems in science, technology and society. Educating students in data science goes beyond teaching about algorithms, skills of manipulating data sets, selecting and applying appropriate analyses, and creating and interpreting visual representations of data. It also involves raising a critical understanding of how data are produced and how they can be used for particular purposes, including the role of context in interpreting data. It emphasizes developing an awareness for data ethics, and considering the implications for policy and society when powerful algorithms are used. Participation in democracy, in today’s digital and datafied society requires the development of a series of transversal skills which need to be fostered in educational institutions through critically oriented pedagogies that interweave technical data skills and practices together with statistical and media literacies. Based on an analysis of trends and needs to protect democratic values in a datafied society and on own reflections of teaching practices this paper gives recommendations on designing data science courses to develop informed citizen.
... Innovation, social progress, and the wellbeing of our civil society require that people in science, business, politics, and society know how to evaluate and make sense of data to develop a sound understanding of our world and address pressing societal challenges with empirical insights and sound data-driven arguments. At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, raises serious problems for democracy and freedom (see, e.g., Helbing et al. 2017). Algorithms that draw on data are used to profile members of society and make important decisions that disproportionately impact those with less privilege and resources (O Neill 2016). ...
... Innovation, social progress, and the wellbeing of our civil society require that people in science, business, politics, and society know how to evaluate and make sense of data to develop a sound understanding of our world and address pressing societal challenges with empirical insights and sound data-driven arguments. At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, raises serious problems for democracy and freedom (see, e.g., Helbing et al. 2017). Algorithms that draw on data are used to profile members of society and make important decisions that disproportionately impact those with less privilege and resources (O Neill 2016). ...
Addressing data as a model and promoting a deeper understanding can provide a solid foundation for future modeling activities and enhance comprehension of data-based AI methods. Data—viewed not just as raw information but as a model—simplify complex aspects of the world and serve various purposes. A series of lessons taught 6th-grade students the AI method of decision trees using nutritional data. After the series of lessons, students answered a questionnaire and offered their perspective on data. The answers were analyzed using qualitative content analysis. Several students recognized data as a representation with context and understood its purpose for decision-making. However, some perspectives were incomplete, indicating a need for more explicit discussions about data as a model in the classroom.
... Innovation, social progress, and the wellbeing of our civil society require that people in science, business, politics, and society know how to evaluate and make sense of data to develop a sound understanding of our world and address pressing societal challenges with empirical insights and sound data-driven arguments. At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, raises serious problems for democracy and freedom (see, e.g., Helbing et al. 2017). Algorithms that draw on data are used to profile members of society and make important decisions that disproportionately impact those with less privilege and resources (O Neill 2016). ...
... Innovation, social progress, and the wellbeing of our civil society require that people in science, business, politics, and society know how to evaluate and make sense of data to develop a sound understanding of our world and address pressing societal challenges with empirical insights and sound data-driven arguments. At the same time, Big Data, with its possibilities for surveillance, manipulation, and control, raises serious problems for democracy and freedom (see, e.g., Helbing et al. 2017). Algorithms that draw on data are used to profile members of society and make important decisions that disproportionately impact those with less privilege and resources (O Neill 2016). ...
The chapters in this volume emanate from the presentations and enriching discussions that characterized the Minerva School 2022 “An Interdisciplinary Exploration of Future Data Pedagogies and Digital Tools to Nurture Citizens’ Reasoning with Models and Modeling in the Big Data Era” held in Paderborn, Germany. This Minerva School brought together a range of expertise from
different subject domains, theoretical perspectives, and methodological approaches.
... It is important to highlight that such a one-dimensional, "utilitarian" approach, warrants caution. Especially when applied to complex systems such as pluralistic societies, it could potentially lead to technological totalitarianism, also known as "data dictatorship" [65]. Such concerns have also been sometimes raised in connection with some "smart cities" approaches. ...
To improve the performance of systems, optimization has been the prevailing approach in the past. However, the approach faces challenges when multiple goals shall be simultaneously achieved. For illustration, we study a multi-agent system, where agents have a plurality of different, and mutually inconsistent goals. We then allow agents in the system to vote on which traffic signal controllers, which were trained on different goals using deep reinforcement learning, would control the intersection. Taking decisions based on suitable voting procedures turns out to lead to favorable solutions, which perform highly for several goals rather than optimally for one goal and poorly for others. This opens up new opportunities for the management or even self-governance of complex systems that require the consideration and achievement of multiple goals, such as many systems involving humans. Here, we present results for traffic flows in urban street networks, which suggest that “democratizing traffic” would be a promising alternative to centralized control of traffic flows.
... It is important to highlight that such a one-dimensional, "utilitarian" approach, warrants caution. Especially when applied to complex systems such as pluralistic societies, it could potentially lead to technological totalitarianism, also known as "data dictatorship" [49]. Such concerns have also been sometimes raised in connection with some "smart cities" approaches. ...
... Angesichts der gestiegenen Manipulations-und Missbrauchsmöglichkeiten, die Ökonomie und auch Politik auf der Grundlage von Big Data zugewachsen sind, erscheint die Schulung von Data-Literacy als eine dringliche Aufgabe für ‚Demokratien im Stresstest'. Programmatisch wurde gefordert, "die Mündigkeit der Bürger in der digitalen Welt zu fördern" (Helbing et al. 2015 Vorkenntnisse, verwendete Software usw. (vgl. ...
Die Allgegenwart von Daten in der Informationsgesellschaft verlangt nach der Ausbildung von Data-Literacy als Querschnittsaufgabe des Bildungssystems. Bedeutend für die politische Bildung ist ein kompetenter Umgang mit zivilstatistischen Daten als Basis für politisches Urteilen auf wohlinformierter Grundlage. Im Aufsatz wird das aus der Statistikdidaktik stammende Konzept „zivilstatistische Lesefähigkeit“ (civic statistical literacy) vorgestellt. Es werden Verbindungslinien zur politischen Bildung geschlagen und praxiserprobte Lernaufgaben für Studierende im Feld der Demokratiemessung vorgestellt.
... Strukturierte Daten nehmen eine immer wichtigere Rolle im Leben der Menschen ein -sei es bei der Vergabe von Krediten, Wohnungen und Arbeitsplätzen, bei Einreisen in andere Länder oder beim Zutritt zu geschützten Bereichen wie etwa Flughäfen (Johnson/Wayland 2010;Smolak 2015). Gleichzeitig gestaltet sich die demokratische Kontrolle komplexer technischer Systeme und ihrer Wirkungen schwierig (Sclove 1995), ein Befund, der durch das intransparente Gebaren von Social Media-Firmen, Geheimdiensten und politischen Parteien sowie angesichts der zunehmenden Fragmentierung der Öffentlichkeit noch an Bedeutung und Aktualität gewinnt (Richards 2013(Richards : 1935Morozov 2013;Helbing et al. 2015). In weiten Teilen der Bevölkerungen hat sich bisher jedenfalls kaum öffentlicher Protest gegen die massenhafte Sammlung und Auswertung ihrer Daten erhoben (Krasmann 2011¸ Pörksen 2016Bauman et al. 2014;Monahan 2010). ...
Unternehmen, Sicherheitsbehörden und politische Organisationen sammeln und verwerten eine Unmenge persönlicher Daten zur Verbesserung von Verhaltensprognosen und zur Verhaltenssteuerung. Setzt man diese Entwicklung mit Kernelementen demokratischer Willensbildung wie der autonomen Meinungsbildung, der selbstbestimmten Grenzziehung zwischen Privatheit und Öffentlichkeit und der Vermittlungsaufgabe öffentlicher Medien in Beziehung, so werden an vielen Stellen tiefgreifende Veränderungen und Probleme deutlich. Die gesellschaftlichen und poli-tischen Folgen der massenhaften Erhebung und Auswertung persönlicher Daten sind aus demokratietheoretischer Perspektive jedoch erst in Ansätzen behandelt worden. Der Beitrag illustriert gegenwärtige Überwachungspraktiken und erörtert ihre komplexen, teilweise gegenläufigen Folgen mit Blick auf die Grundbedingungen demokratischer Willensbildung.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Die vorliegende Studie hat Digitalisierungsprozesse auf der Mesoebene zum Thema und untersucht diese Prozesse am Beispiel der Onlinekommunikation von Interessenorganisationen. Das Erkenntnisinteresse liegt darin, zu beschreiben, wie Interessenorganisationen langfristig auf die Verbreitung von Onlinekommunikation als Bestandteil der Digitalisierung reagieren.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Ziel der Arbeit ist die Entwicklung einer theoretischen Konzeption, mit der analysiert werden kann, wie sich Digitalisierung auf der Mesoebene vollzieht. Um eine Analyse zu entwickeln, die der Komplexität des Phänomens gerecht wird, muss allerdings über die Mesoebene der Organisationen hinausgegangen werden. Digitalisierung ist ein Megatrend, der tiefgreifende Veränderungen für alle gesellschaftlichen Teilbereiche bedeutet – und sich auf globaler Ebene vollzieht.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Digitalisierungsprozesse führen zu Veränderungen in allen gesellschaftlichen Teilbereichen. Dies gilt auch für Interessenorganisationen als zentralen Akteuren der politischen Kommunikation auf der Mesoebene. Paula Nitschke untersucht deshalb, wie sich Onlinekommunikation im Binnengefüge von Interessenorganisationen institutionalisiert. Dieser Zugriff hat den Vorteil, dass Onlinekommunikation nicht bloß als Werkzeug in der Toolbox politischer PR erscheint. Es wird stattdessen gezeigt, wie Onlinekommunikation zum dauerhaften Bestandteil der Strukturen von Interessenorganisationen wird. Die Autorin verbindet Forschung unterschiedlicher Wissenschaftsdisziplinen zu einer theoretischen Konzeption, die in zwei Fallstudien mit teilnehmender Beobachtung empirisch erprobt wird.
Der Inhalt
• Forschungsstand zur Onlinekommunikation von Interessenorganisationen
• Überblick über den Neoinstitutionalismus in der Kommunikationswissenschaft
• Forschungsprogramm zur Institutionalisierung von Onlinekommunikation in Organisationen
• Methodenteil zur teilnehmenden Beobachtung mit Beobachtungsinstrument
Die Zielgruppen
• Dozierende und Studierende der Kommunikationswissenschaft, Organisationssoziologie und Politikwissenschaft
• Fachkräfte der Bereiche Öffentlichkeitsarbeit und NGO-Kommunikation
Die Autorin
Dr. Paula Nitschke ist wissenschaftliche Mitarbeiterin am Institut für Medien, Wissen und Kommunikation der Universität Augsburg.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Um zu analysieren, wie sich Onlinekommunikation als soziale Praktik institutionalisiert, braucht es eine Operationalisierung des Institutionalisierungsprozesses. In diesem Kapitel wird deshalb eine vierdimensionale Forschungsheuristik entwickelt, anhand derer der Weg nachgezeichnet werden kann, entlang dessen institutionelle Ordnungen aus der Organisationsumwelt Eingang in organisationale Strukturen und organisationales Handeln finden. Dieses Vorgehen unterscheidet sich in entscheidenden Punkten von Herangehensweisen, in denen nach dem Vorkommen einer (Online-) Medienlogik oder anderen, gut abgrenzbaren Elementen, zum Beispiel Organisationsmodellen, gefragt wird.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Die vorliegende Studie hat die Onlinekommunikation von Interessenorganisationen zum Thema. Das Erkenntnisinteresse der Arbeit lag darin, zu beschreiben, wie Interessenorganisationen langfristig auf die Verbreitung von Onlinekommunikation als Bestandteil der Digitalisierung reagieren. Die langfristige Reaktion wurde auf Basis neoinstitutionalistischer Theorie als Institutionalisierung von Onlinekommunikation verstanden.
... Diese Restrukturierung wird mitunter als so tiefgreifend beschrieben, dass von einem neuen digitalen Zeitalter oder einer digitalen Revolution gesprochen (und gewarnt) wird (siehe z. B. Helbing et al. 2017). Auch in der politischen Kommunikationsforschung wird der strukturelle Wandel politischer Kommunikation durch Onlinemedien als Zeitenwende bewertet, die "vergleichbar ist mit der Entstehung bürgerlicher Öffentlichkeit in der frühen Neuzeit oder ihrer Transformation zur modernen Öffentlichkeit industrieller Massengesellschaften" (Dohle et al. 2014, S. 435 Die beiden Möglichkeiten -Politik als Beeinflusser der Digitalisierung oder Digitalisierung als Beeinflusser der Politik -lassen sich an die beiden von Winfried Schulz (2003, S. 458) formulierten Grundfragen anbinden, an denen sich die Erforschung der politischen Kommunikation orientiert und mit Hilfe derer sich der Gegenstandsbereich der politischen Kommunikationsforschung abgrenzen lässt. ...
Im Folgenden werden die Befunde der empirischen Untersuchung anhand der Forschungsheuristik dargestellt, die den komplexen Institutionalisierungsprozess der Untersuchung zugänglich macht und dafür die Dimensionen Artefakte, Arbeitsroutinen und Arbeitsregeln, Beziehungsnetzwerke und Koordination sowie sprachbasierte Sinnwelten unterscheidet. Um die Befunde zu den beiden untersuchten Organisationen sinnvoll aufeinander zu beziehen, werden die Organisationen nicht einzeln besprochen und anhand der vier Dimensionen durchdekliniert. Es wird stattdessen andersherum vorgegangen und innerhalb der Analysedimensionen die Befunde beider Organisationen dargestellt.
Meekness: years ago, in order to talk about the city, it seemed to me only right to try to look from another point of view, the feminine one of maternal care and delicacy, to introduce other dimensions in urban planning discourses, often so specifically technical as to be reductionist. In contrast to the technological vision, to that implicit competition between cities in the search for primates, I wanted to think of a welcoming and creative city for a complex society, where the organization of the territory takes on new values in the tumultuous transformations induced by the geopolitical movement of peoples, by demographic growth, by technologies and by the violent appropriation of natural resources.
The extent of cities and their areas of influence has taken over the entire planet. The very words cities, conurbations, metropolises, metropolitan areas and urban regions mean global infrastructure and investment. The urban is global.
Mitezza: anni fa per parlare della città mi sembrò doveroso provare a guardare da un altro punto di vista, quello femminile della cura materna e della delicatezza, per introdurre altre dimensioni nei discorsi urbanistici, spesso così specificamente tecnici da essere riduzionisti. In contrasto alla visione tecnologica, a quell’implicita gara tra le città nella ricerca di primati volevo pensare a una città accogliente e creativa per una società complessa, dove l’organizzazione del territorio assume nuove valenze nelle tumultuose trasformazioni indotte dallo spostamento geopolitico dei popoli, dalla crescita demografica, dalle tecnologie e dalle violente appropriazioni di risorse naturali.
L’estensione delle città e delle loro aree di influenza ha occupato l’intero pianeta. Le stesse parole città, conurbazioni, metropoli, aree metropolitane e regioni urbane significano infrastrutture e investimenti globali. L’urbano è planetario.
Die Umsetzung von Ethik in der Wirtschaft ist keine Besonderheit, die nur mit KI einhergeht. Allerdings sind die Auswirkungen in einem KI-Umfeld viel weitreichender als je zuvor. Aufgrund ihres disruptiven Charakters wirkt sich KI auf die Wohlstandsprognosen ganzer Gesellschaften aus, bis hin zu den Lebenshaltungskosten jedes Einzelnen; auch auf die Umwelt hat sie massive Auswirkungen. Es werden wichtige Initiativen in der EU und den USA für eine ethische KI vorgestellt, wie geltende Gesetze (z. B. GDPR und CCPA zum Datenschutz) und Ideen wie das RoboLaw zur Automatisierung oder die elektronische Person (e-person). Postulate verschiedener Kommissionen werden zusammengefasst und ausgewählte Organisationen, die sich für ethische KI einsetzen, werden vorgestellt. Mit dem „Haus der ethischen KI“ wird ein Rahmen für die Sicherung ethischer KI vorgeschlagen. Seine Schlüsselelemente, die sich auf Vertrauen, Aufklärung und Verantwortlichkeit konzentrieren, werden diskutiert und mit verschiedenen Beispielen illustriert. Schließlich wird ein Umsetzungsfahrplan für ethische KI vorgeschlagen.
Data science as a practical science has been conceived to address tangible problems in science, technology, and society. These problems require skills and dispositions beyond the technical mastery of algorithms such as interrogating measurability issues, classifying results under uncertainty and risk, and being aware of data ethics and implications for policy and society. These features relate data science education closely to the recently developed field of civic statistics. This conceptual paper looks at the common grounds between these two areas. It investigates how digital literacy and data science can enhance civic statistics and, vice versa, how civic statistics concepts have the potential to enrich the teaching of data science and data literacy. Hence the paper contributes to the development of new curriculum guidelines and, ultimately, courses.
Dieses Buch bietet einen Überblick über Forschungsdatenmanagement und dessen konkrete Umsetzung in der Informatik. Anhand von Personas und Szenarien wird ein Großteil von informatischen Anwendungsfällen und Fragen abgedeckt, um Lehrende sowie Studierende der Informatik dabei zu unterstützen, Forschungsdatenmanagement adäquat zu realisieren. Im ersten Teil des Buchs wird Lehrenden der Informatik anhand von Modulen konkret aufgezeigt, welche Themen der Informatik besonders geeignet sind, um Forschungsdatenmanagement in das Informatikstudium zu integrieren. Der zweite Teil des Buchs erläutert Bestandteile des Forschungsdatenmanagements und veranschaulicht deren Anwendung auf ausgewählte Szenarien. Abschließend werden im dritten Teil Lehrmaterialien (Arbeitsblätter, Musterlösungen, Checklisten und weitere) zur Verfügung gestellt, um den direkten und fachgerechten Einsatz in der universitären Lehre zu stärken.
Dieses Buch bietet einen Überblick über Forschungsdatenmanagement und dessen konkrete Umsetzung in der Informatik. Anhand von Personas und Szenarien wird ein Großteil von informatischen Anwendungsfällen und Fragen abgedeckt, um Lehrende sowie Studierende der Informatik dabei zu unterstützen, Forschungsdatenmanagement adäquat zu realisieren.
Im ersten Teil des Buchs wird Lehrenden der Informatik anhand von Modulen konkret aufgezeigt, welche Themen der Informatik besonders geeignet sind, um Forschungsdatenmanagement in das Informatikstudium zu integrieren. Der zweite Teil des Buchs erläutert Bestandteile des Forschungsdatenmanagements und veranschaulicht deren Anwendung auf ausgewählte Szenarien. Abschließend werden im dritten Teil Lehrmaterialien (Arbeitsblätter, Musterlösungen, Checklisten und weitere) zur Verfügung gestellt, um den direkten und fachgerechten Einsatz in der universitären Lehre zu stärken.
Zusammenfassung
Die immer stärkere Durchdringung von Wirtschaft und Gesellschaft mit digitalen Technologien führt dazu, dass Daten in bislang ungekanntem Maß (teil-) automatisch erhoben, gespeichert und verarbeitet werden. Gleichzeitig ist es einfacher möglich, Daten aus unterschiedlichen Quellen miteinander zu verknüpfen und auszuwerten. Der so geschaffene Zugang zu großen Datenbeständen kann das Entscheidungsverhalten von Unternehmen und Verbrauchern verändern, mitunter sogar auch über die Grenzen von physischer und digitaler Welt hinweg.
In einer derartigen „Datenökonomie“ entstehen zahlreiche Möglichkeiten für Unternehmen und Konsumenten. So etwa können Unternehmen durch personenbezogene Daten mehr über bestehende und potentielle Konsumenten erfahren oder mit personenbezogenen Daten als ökonomisch handelbares Gut auf Datenmärkten partizipieren. Konsumenten können durch die Preisgabe ihrer Daten profitierten, etwa indem sie von verbesserten Angeboten profitieren oder Daten als Zahlungsmittel nutzen. Die personenbezogenen Daten haben somit sowohl für die Konsumenten als auch für die anfragenden Unternehmen einen Wert und gleichzeitig einen damit verbundenen Preis. Es zeigt sich somit ein facettenreiches Bild hinsichtlich der zugrunde liegenden Austauschbeziehung zwischen Unternehmen und Konsumenten.
Dieser Beitrag verfolgt das Ziel, anhand einzelner exemplarischer Kontexte, das ökonomische Verständnis von Privatheit als Wechselspiel zwischen Anbieter und Nachfrager aufzuzeigen und insbesondere mittels aktueller Erkenntnisse zu erweitern. Aus unternehmenszentrierter Perspektive wird der Datenhandel mit personenbezogenen Daten sowie die unternehmensinterne Verwendung von Daten zwecks Auswertung dargestellt. Aus verbraucherorientierter Perspektive wird die Zahlungsbereitschaft für den Verzicht auf die Weitergabe von Daten sowie die Bereitschaft zur Offenlegung von Daten betrachtet.
Zusammenfassung
Der Beitrag erläutert die Aspekte des Daten- und Privatheitsschutzes durch Systemgestaltung. Auf eine einleitende Erläuterung der Systemgestaltung folgt eine Darstellung des Risikobegriffs der DSGVO. Der Risikobegriff als zentraler Bestandteil und wesentliche Neuerung im harmonisierten Datenschutzrecht stellt zugleich den Maßstab für die Anforderungen an die Systemgestaltung dar. Der sog. risikobasierte Ansatz ist dabei nicht nur für eine Betrachtung der Datenschutzrisiken der betroffenen Personen maßgeblich, sondern erfordert eine umfassende Berücksichtigung sämtlicher aus Datenverarbeitungsvorgängen resultierenden Risiken für die Rechte und Freiheiten natürlicher Personen. Eine solche Beurteilung setzt voraus, dass die Verantwortlichen die spezifischen Grundrechtsrisiken ihrer Datenverarbeitungsvorgänge identifizieren können. Daher stellt der Beitrag einen Ansatz der Risikoerkennung vor, der auf einer systematischen Darstellung der jeweiligen Datenverarbeitung aufbaut und diese mit einer zeitlichen Systematisierung möglicher Grundrechtsausübung verknüpft, die eine solche Risikoerkennung für die Verantwortlichen erleichtern kann. Sodann werden die maßgeblichen Kriterien für die Bewertung der Risiken vorgestellt. Hierbei kommt es auf die Art, den Umfang, die Umstände und die Zwecke der jeweiligen Verarbeitung personenbezogener Daten an. Auf der Grundlage der so erkannten und bewerteten Risiken können Verantwortliche im Vorfeld einer Datenverarbeitung eine datenschutzkonforme Systemgestaltung sicherstellen. Dies umfasst sowohl die Umsetzung der Anforderungen an Datenschutz durch Technikgestaltung, d. h. die Implementierung technischer und organisatorischer Maßnahmen auf Grundlage der erkannten Risiken und Datenschutzgrundsätze, als auch die Berücksichtigung datenschutzfreundlicher Voreinstellungen. Zuletzt werden Spannungsfelder datenschutzrechtlicher Sachverhalte angesprochen. Die Querverbindungen und Auswirkungen datenschutzfreundlicher Verarbeitungsverfahren auf etwa Aspekte der Informationsfreiheit (im Kontext öffentlicher Stellen), des Umweltschutzes, des Datenzugangs und des Kartellrechts werden beleuchtet. Mit einer Folgenabschätzung sowie einer frühzeitigen und systematischen datenschutzfreundlichen Systemgestaltung lassen sich in der Regel Lösungen finden, die sämtliche Anforderungen in ausreichendem Maße berücksichtigen.
Zusammenfassung
Dieses Kapitel fokussiert den digitalen Fußabdruck einer Person, der typischerweise größer wird und der immer elaborierteren Auswertungsmöglichkeiten zugeführt wird. Die Autor:innen begründen die Vergrößerung des Fußabdrucks mit drei miteinander verschränkten technischen Trends: Hyperkonvergenz der Informationstechnologie, Hyperkonnektivität sowie mehr und mehr entstehende dynamische Informations-Ökosysteme. Um gezielt Gestaltungsvorschläge für privatheitsfreundliche Systeme entwickeln zu können, so die weitere Argumentation, müssen zunächst Angriffs- und Bedrohungspotenziale, die aus diesen Trends entstehen, betrachtet werden. Diese werden an Hand von vier Beispielen erläutert: Datenschutz im Domain Name System, bei mobilen Diensten wie Dating-Apps und Lern-Apps, bei vernetzten und smarten Objekten wie Smart-TVs oder Smart Cars sowie in öffentlichen, freien WLANs. Die Autor:innen zeigen mittels Generalisierung der gegebenen Beispiele das mögliche Spannungsverhältnis zwischen dem Innovationspotential von Digitalisierung und den wirtschaftlichen Interessen von Unternehmen auf der einen Seite sowie den Privatheitsinteressen der Nutzenden auf der anderen Seite auf. Dieses Spannungsverhältnis spiegelt auch der bestehende rechtliche Rahmen wieder. Die Autor:innen zeigen aber auch, dass Innovation und Privatheit durchaus vereinbar sind, beispielsweise wenn gerade mit und durch technische Innovationen geeignete „Privacy-enhancing Technologies“ (PETs) entwickelt und genutzt werden. Wie dies aussehen kann, wird an Hand von drei konkreten technischen Umsetzungsbeispielen (Me&MyFriends; WallGuard und Metaminer) illustriert. Me&MyFriends ist ein Selbstbewertungstool für Nutzer:innen, welches es ermöglicht, auf Basis von transparent gemachten Beziehungsgraphen detailliertes Wissen über hinterlassene digitale Spuren bei der Nutzung von Online Social Media zu erlangen. WallGuard dient der präventiven Erkennung von Social-Media-Beiträgen, die möglicherweise ein späteres Bereuen nach sich ziehen könnten. MetaMiner ist ein nutzerzentriertes Framework, das eine Verbesserung der Transparenz über die Netzwerkinteraktionen des mobilen Geräts ermöglicht. Gemeinsam ist den drei Gestaltungsvorschlägen, dass sie aufzeigen, wie wirkungsvoll Transparenz über den persönlichen digitalen Fußabdruck für den Schutz der informationellen Selbstbestimmung sein kann.
Zusammenfassung
Der Beitrag wendet sich dem ambivalenten Zusammenspiel von Privatheit und Digitalität zu, indem er deren Relevanz für Diskurse und Praktiken der Selbstbestimmung ausleuchtet und auf die soziotechnischen Transformationen dieses Zusammenspiels bezieht. Privatheit und Digitalität werden dabei als gesellschaftlich mitkonstituierte Sozialformen, Assemblagen oder Kommunikationsverhältnisse perspektiviert, die von historisch sich wandelnden soziokulturellen Einflussgrößen durchzogen sind. Um die skizzierte Perspektive einzunehmen werden wir zunächst die einschlägigen soziologischen Wissensbestände zu einer kursorischen Darstellung gesellschaftstheoretischer Perspektiven auf Privatheit verdichten. Daraufhin wenden wir uns den soziologischen Digitalisierungsforschungen zu, die die Konzeptualisierung von Privatheit nicht unberührt lassen. Hierbei wird v. a. herausgearbeitet, dass das soziologische und gesellschaftstheoretische Bild von Privatheit um Aspekte des Technischen und Materiellen erweitert werden muss. Theoretisch entsprechend eingestellt werden wir sodann eine Analyse von Selbstbestimmung unter soziodigitalen Verhältnissen präsentieren, die sich an vier zentralen Problemfeldern von Privatheit und Digitalität entfaltet: Die soziale Prämierung von Sichtbarkeit; soziale Konsequenzen digitaler Verhaltensformung; die soziale Dynamik datenökonomischer Erlösmodelle; sowie die Auswirkungen, die sich aus alldem für die Entscheidungsfreiheiten von Nutzenden ergeben. Im Fazit des Beitrags werden Konsequenzen für eine demokratische und an Selbstbestimmung orientierte Gestaltung von Privatheit benannt. Hierbei zeigt sich ein erheblicher Bedarf an einer Politik der Gestaltung und Regulierung von soziodigitalen Infrastrukturen, die eine Datenökonomie befördert, welche sich der demokratischen Kontrolle, Mitbestimmung und v. a. der Kritik öffnet. Zentrale Kompetenz individueller, wie kollektiver Selbstbestimmung wird damit die Fähigkeit zur Kritik der normierenden Gehalte und Effekte soziodigitaler Infrastrukturen. Diese muss aus den soziodigitalen Verhältnissen und praktischen Situationen selbst erwachsen und die Pluralität von Rechtfertigungsordnungen moderner Gesellschaften einbeziehen, um so die Kontingenz bestehender normativer Ordnungen erfahrbar und alternative Infrastrukturgestaltungspfade begehbar zu machen: Nur wenn die Infrastrukturen gewährleisten, dass der Faden zur kritischen Praxis nicht reißt, kann Privatheit unter soziodigitalen Bedingungen Ort der Selbstbestimmung bleiben.
Zusammenfassung
Die globale Digitalisierung nahezu aller Lebensbereiche gefährdet zunehmend die individuelle und demokratische Selbstbestimmung und erfordert umso stärker ihren normativen Schutz. Doch die Bedingungen für diesen Schutz haben sich radikal geändert. Konzepte, Institutionen und Instrumente, die für diesen Schutz in den 1970er Jahren für die Gefährdung durch kommunale Gebietsrechenzentren entworfen wurden, genügen nicht mehr für den Schutz gegenüber globalen digitalen Infrastrukturen, die das alltägliche Leben bestimmen. Der Beitrag analysiert die Herausforderungen für das Grundrecht auf Datenschutz und informationelle Selbstbestimmung, untersucht das aktuelle Schutzkonzept der Datenschutz-Grundverordnung und seine Governance-Struktur, diskutiert Schutzverbesserungen in dem neugeschaffenen Regelungsumfeld und erörtert mögliche neue Konzepte und Instrumente zum Grundrechtsschutz in der globalen digitalen Transformation.
Als besondere Herausforderungen der relevanten Grundrechte werden technische und gesellschaftliche Entwicklungen in Form von neuen Datenquellen, virtuellen Infrastrukturen, Big Data und Künstlicher Intelligenz identifiziert. Das aus den relevanten Grundrechten abgeleitete Schutzkonzept des Datenschutzrechts wird auf Ebene von Einwilligung, Transparenz, Zweckbindung, Datenminimierung und auf Ebene der Betroffenenrechten durch diese Entwicklungen ausgehöhlt. Die Datenschutz-Grundverordnung hat zwar Verbesserungen bewirkt, jedoch bleiben die bestehenden Probleme in ihrem Kern vielfach ungelöst. Es ist deshalb auch nach dem Geltungsbeginn der Datenschutz-Grundverordnung eine Weiterentwicklung des Governance-Rahmens erforderlich. Hier sind neben der Europäischen Kommission auch nationale Gesetzgeber, Behörden und Gerichte gefragt. Notwendig ist sowohl eine Fortentwicklung der Datenschutz-Grundverordnung als auch eine strukturelle Modernisierung des Datenschutzrechts. Als Konzepte und Instrumente zur Bewältigung der beschriebenen Herausforderungen bieten sich die rechtliche Gestaltung grundrechtsriskanter Techniksysteme, eine Objektivierung des Grundrechtsschutzes, die Etablierung von Infrastrukturverantwortung sowie eine Globalisierung des Grundrechtsschutzes an.
Zusammenfassung
Die Nutzung des Internets führt auf der einen Seite zu unzähligen Erleichterungen des täglichen Lebens, kann auf der anderen Seite allerdings auch zu Verletzungen der persönlichen Privatsphäre führen, da viele Firmen private Daten der Nutzenden sammeln. Noch sind Nutzende allerdings primär selbst in der Verantwortung, diese Privatheitsrisiken zu minimieren, da selbst strenge Datenschutzverordnungen wie die europäische DSGVO die Verantwortung für zahlreiche Entscheidungen bei den Nutzenden sehen. Daher ist es von großer Wichtigkeit, die persönlichen Motive für das Anwenden oder nicht Anwenden von Schutzmaßnahmen zu verstehen, um Nutzende gegebenenfalls unterstützen zu können. Vor diesem Hintergrund analysiert dieser Beitrag sieben empirische Untersuchungen und ordnet deren Hauptergebnisse in den empirischen Kontext bezüglich des Selbstdatenschutzes ein. Generell scheinen Nutzende motiviert zu sein, die eigene Privatsphäre online zu schützen, wobei einfach anzuwendende Schutzmaßnahmen häufiger verwendet werden als komplexere Strategien. Des Weiteren deuten die Studien darauf hin, dass das generelle Schutzverhalten bzw. die Schutzmotivation von einer Vielzahl unterschiedlicher psychologischer Faktoren beeinflusst werden. Einen besonders wichtigen Einfluss hat dabei die Wahrnehmung von Privatheitsrisiken, wobei auch weitere Variablen einen positiven Einfluss auf den Selbstdatenschutz haben, wie zum Beispiel die empfundene Effizienz des Schutzverhaltens, ein Bedürfnis nach höherem Privatheitsschutz oder eine ausgeprägtere Privatheitskompetenz. Allerdings gibt es auch Faktoren, die sich negativ auf das Schutzverhalten auswirken können, wie zum Beispiel Resignation, also der Glaube, dass Datenschutz nicht zu mehr tatsächlicher Privatheit führe. Schließlich deuten einige Ergebnisse der Untersuchungen darauf hin, dass ein probates Mittel für ein umsichtigeres Privatheitsverhalten im Netz die Schaffung von Transparenz sein kann. Dabei hat sich als wichtig herausgestellt, dass relevante Informationen möglichst kurz gehalten werden, damit Nutzende nicht überfordert sind. Besonders förderlich für Schutzverhalten sind außerdem Informationen darüber, welche Privatheitsrisiken bestehen und wie man diese effizient vermeiden kann. Vor dem Hintergrund der zusammengetragenen Ergebnisse scheint es besonders sinnvoll, Nutzende mit Wissen auszustatten, welche negativen Konsequenzen verschiedene Verhaltensweisen im Netz haben können und wie man sich effizient vor diesen Konsequenzen schützen kann.
Zusammenfassung
Der Beitrag diskutiert aus ethisch-philosophischer Perspektive die Bedeutung des Konzepts Privatheit für individuelle Freiheit, Selbstverwirklichung und demokratische Teilhabe. Es wird dargestellt, dass in einer datafizierten Gesellschaft das private, individuelle Handeln durch umfassende Datenerhebungen abgebildet und für das politische Handeln fruchtbar gemacht werden kann . Auf diesem Wege können individuelle und private Handlungen durch ihre technische Verdichtung und Auswertung zu überindividuellen und öffentlichen Strukturbedingungen werden. Der Beitrag verdeutlicht, dass – trotz der Schutzwürdigkeit einer privaten Sphäre – private, individuelle Handlungen nicht zum bestimmenden Maßstab politischen Handelns werden dürfen. Dabei werden Argumente aus Demokratietheorie, Technokratiedebatte sowie Probleme der Widersprüche von Wertüberzeugungen und individueller Handlungspraxis ( value-action gap ) diskutiert. Vor diesem Hintergrund wird der Forschungsstand moderner Privatheitstheorien anhand einer Unterscheidung zwischen ihren individuellen und überindividuellen Dimensionen systematisiert. Die Beispiele Clouddienste und Medienmündigkeit vertiefen und veranschaulichen die Bedeutung von Privatheit und informationeller Selbstbestimmung für den Schutz der Demokratie.
The digital age has such a far-reaching influence on the private that it requires a structural change of this private. We theorize this change in the fields of economics, politics and social affairs in the following section. The aim of the proposed theory is to provide a view of the principle of privacy that is updated to include the aspect of digitalisation.
Implementing ethics in business is not unique that just comes along with AI. Though, the implications in an AI setting are much more far-reaching than ever before. Given its disruptive nature, AI affects entire societies’ prosperity projections right down to every individual to earn a living; it has a massive impact on the environment as well. Illustration of key initiatives in the EU and the USA toward ethical AI is discussed such as applicable laws (e.g., GDPR and CCPA on data privacy) and ideas such as the RoboLaw on automation or the electronic person (e-person). Postulates from various commissions are summarized and selected organizations thriving for ethical AI are introduced. A framing to safeguard ethical AI is being proposed with the “House of Ethical AI.” Its key elements that focus on trust, enlightenment, and accountability are discussed and illustrated with various examples. Finally, an implementation roadmap toward ethical AI is been proposed.
Trotz einiger Kritikpunkte stellt die EU-Datenschutz-Grundverordnung (DSGVO) das weltweit ambitionierteste Gesetz zum Schutz personenbezogener Daten dar. Die DSGVO führte mehrere Innovationen in das Datenschutzrecht ein. Dazu zählen beispielsweise das Marktortprinzip, das Recht auf Datenübertragbarkeit, die Anforderungen an den Datenschutz durch Systemgestaltung und durch Voreinstellungen sowie die Datenschutz-Folgenabschätzung. Auf der Ebene der Governance-Strukturen fand das Prinzip der sog. Rechenschaftspflicht Eingang in das EU-Datenschutzrecht. An die Seite gestärkter Betroffenenrechte und gestärkter Aufsichtsbehörden trat die Pflicht der Datenverarbeiter, selbständig und – in Abhängigkeit vom Risiko der jeweiligen Verarbeitung – unter geringerem organisatorischen Aufwand für die Einhaltung der Datenschutzregeln zu sorgen. Als Element dieser Rechenschaftspflicht wurde das mögliche Sanktionsmaß auf eine Bußgeldhöhe von 20 Millionen Euro oder im Falle eines Unternehmens auf bis zu 4 % seines weltweiten Jahresumsatzes festgelegt.
Die DSGVO war aber auch Kritik ausgesetzt. Aus bürgerrechtlicher Seite stechen die unzureichende Harmonisierung und die falsch verstandene Technikneutralität der DSGVO hervor. So beinhaltet die DSGVO trotz der anfänglichen Intention der EU-Kommission, das EU-Datenschutzrecht zu vereinheitlichen, 70 Öffnungsklauseln. Diese ermöglichen es den Mitgliedstaaten von den Vorgaben der Verordnung abzuweichen oder diese zu kon-kretisieren. Zudem wird die DSGVO dahingehend kritisiert, dass die Datenschutz-Risiken moderner Technologien unberücksichtigt blieben. Aus der Perspektive der datenverarbei-tenden Wirtschaft wird die DSGVO dagegen im Hinblick auf die mit der neuen Regelung verbundene administrative Mehrbelastung kritisiert.
Dieser Beitrag widmet sich der Auseinandersetzung mit beiden Strängen der Kritik und beantwortet zwei Fragen: Zum einen interessiert uns, weshalb die Einführung datenschutzrechtlicher Innovationen durch eine unzureichende Harmonisierung und eine falsch verstandene Technikneutralität begleitet wurden. Zum anderen widmen wir uns der Frage zu, wie die Innovationen der DSGVO, insbesondere das Sanktionsregime, wirken und welche Effekte die DSGVO auf die Innovationsfähigkeit von Unternehmen hat – wirkt sie eher innovationsfördernd oder innovationshemmend?
The authors analyse the specific nature of the work of computer scientists and point out the special responsibility for the products of their work – from the computer program to the decision which machine is used when and where humans should not be replaced by robots. Based on many years of experience at the Universities of Applied Sciences in Erfurt and Nordhausen, among others, they derive suggestions as to how student education can contribute to better meeting this responsibility. Furthermore, it is emphasised that the necessary framework for this in the form of rules and standards etc. must be created by society as a whole, including politics.
While quite aware of the ever-accelerating rate of progress in the AIE field—(this was, indeed, one of the main motivations for writing this modest text in the first place), I considered it unlikely that a “tipping point” would be reached anytime in the course of my writing this book. By tipping point, I mean that point where a learning intelligent system would be developed with a sufficient level of adaptability that, as a proof of concept it could be potentially successfully applied to a huge range of applications, in which hitherto humans were clearly superior in performance. This tipping point, in my opinion, may well now have been reached as of December 2017. And the name of this tipping point is AlphaZero.
The second quote above might be seen as disturbingly prescient of our almost mindless modern-day acceptance and, yes, even love of many aspects of modern technology. This is in spite of the fact that manifestly and from many perspectives a significant number of these technologies are, in fact, doing us harm in the long term. Modern mass media and social media promote the idea that we cannot be happy in our spare time unless we are busy in chat rooms, on social media, inter-acting with our smart TV, etc. And with a reason. Because with each of these seemingly insignificant interactions more information can be gathered about our interests, our hobbies, and other, more personal data.
So began the rather caustic (some might even say misogynistic) introduction by Dr. Uttley to the influential Symposium on the Mechanisation of Thought Processes (Blake and Uttley 1959), held in England in November 1958. (The N.P.L. in the above quote refers to the U.K. National Physical Laboratory.) To the modern perspective this viewpoint might indeed appear a tad misogynistic, but we should perhaps approach this from the perspective of the late 1950s, when the vast majority of researchers and innovators in the field of computation and the (newly christened) AI field were male. This is a particularly interesting perspective as it was, in fact, mainly females that were employed to operate the early mechanical calculators in the 1930s and 1940s. However, the history of people as computers goes back well before this to the seventeenth century and the numerical calculation of the orbital trajectory of Halley’s comet (Grier 2001). Also, in many cases these pioneering human computers were men or boys.
Let us look now at the potential future development of intelligent entities that not only equal human intelligence in all areas but are, in fact, vastly superior to us in this regard. For want of a better word we will use the term superintelligence to describe this scenario, after Nick Bostrum’s recent influential and thought-provoking book with this title (Bostrum 2014). Bostrum defines “superintelligence” as
The new wave of digitization and the ensuing cybernetic loop lead to the fact that biological, social, and cognitive processes can be understood in terms of information processes and systems, and thus digitally programmed and controlled. Digital control offers society and the individuals in that society a multitude of opportunities, but also brings new social and ethical challenges. Important public values are at stake, closely linked to fundamental and human rights. This paper focuses on the public value of autonomy, and shows that digitization—by analysis and application of data—can have a profound effect on this value in all sorts of aspects in our lives: in our material, biological, and socio-cultural lives. Since the supervision of autonomy is hardly organized, we need to clarify through reflection and joint debate about what kind of control and human qualities we do not want to lose in the digital future.
Im Zuge der rasant voranschreitenden Digitalisierung, die durch fortschreitende Innovationen eine markante Präsenz im menschlichen Leben findet, stellt sich zunächst die Frage, welchen Status der Mensch, welchen die Maschine erhält, wenn diese zum Kooperationspartner oder sogar zum Substitut menschlicher Arbeitskraft wird? Die Digitalisierung verändert umfassend Lebenswelten und damit auch das menschliche Selbstverständnis in einer noch nicht dagewesenen Art. Zusätzlich vergrößert sich beispielsweise mit der Einführung robotisch verkörperter Künstlicher Intelligenz der Kreis der moralischen Akteure. Es ist die Aufgabe der Ethik, als Reflektionstheorie der Moral, auf diese moralischen Fragen zu antworten und diese Antworten vor dem Hintergrund der disruptiven digitalisierungsbedingten Veränderungen weiterzuentwickeln. Dabei vertreten die Autoren eine Ethik der Digitalisierung, die Elemente der aristotelischen Ethik des guten Lebens mit deontologischen Momenten der Verantwortung bündelt. Der dabei entfaltete integrative Ansatz basiert darauf, das Spezialwissen verschiedener Bereichsethiken wie die Computer-, Technik-, oder Maschinenethik in ihrem thematischen Bezug auf Phänomene der Digitalisierung zu verbinden und das menschliche Selbstsein sowie Zusammenleben mit Blick auf das gute Leben in gerechten Institutionen zu thematisieren. Für die Digitalisierung der Industrie zeigt sich, dass diese nicht auf binnenunternehmerische Produktionsprozesse beschränkt wird, sondern die vor- und nachgelagerten Wertketten einschließt, wodurch sich die monistische Zielfunktion (wie sie etwa in der Ökonomie mit der Gewinnorientierung bekannt ist) zugunsten einer pluralistischen Zielfunktion (Moral-, Öko-, Gemeinwohlbilanz) auflöst.
Die alten Thesen der Selbstzerstörung der Demokratie, des pervertierten Liberalismus und der Unverzichtbarkeit des autoritären Umweltstaates sind beunruhigend aktuell: In modernen Konsumgesellschaften entfalten sich grundlegende – gerade auch nachhaltigkeitspolitische – Zweifel an der Demokratie; ein demokratischer und ein ökologischer Notstand fallen zusammen, und forcieren eine Hinwendung zum Autoritären. Der vorliegende Artikel sucht nach Erklärungen für den doppelten Notstand und fragt, ob eine Demokratisierung der Demokratie noch einen plausiblen Ausweg bietet. Eine wesentliche Ursache der beobachteten Tendenzen sieht er in der Entgrenzung von Freiheits- und Berechtigungsansprüchen, die er ihrerseits unmittelbar mit der Verabschiedung des aufklärerischen Ideals der Mündigkeit in Verbindung bringt. Beide zusammen, argumentiert er, entziehen sowohl der Demokratie als auch dem Projekt einer sozial-ökologischen Transformation den Boden. Die digitale Revolution vollendet den Ab-schied von der Mündigkeit, beschleunigt die Entgrenzung der Freiheit und führt die Idee einer Demokratisierung der Demokratie ad absurdum. Stattdessen entfaltet sich die mehrheitsautoritäre und exklusionsdemokratische Sicherung der sozial-ökologischen Nicht-Nachhaltigkeit.
ResearchGate has not been able to resolve any references for this publication.