12.03 Ethische Problemfelder der digitalen Welt

12 Digital Ethics

In diesem Kapitel werden einige ethische Problemfelder der digitalen Welt beleuchtet. Dabei handelt es sich um eine nicht abschliessende, exemplarische Enumeration. In diesem Kapitel finden sich jedoch keine Lösungsansätze für entsprechende Dilemmata (sofern diese überhaupt gelöst bzw. aufgelöst werden können; s. dazu nachfolgende Kapitel). Die nachfolgenden Ausführungen basieren u.a. auf einem Bericht zur Zukunft der Datenbearbeitung und Datensicherheit im Jahre 2018 einer Expertengruppe des Eidg. Finanzdepartements, der u.a. auch die ethischen Problemfelder der digitalen Welt eruiert.

Digitalisierung der Arbeitswelt

Schon bisher hat die Digitalisierung viele Arbeitsplätze vernichtet. Bedroht wird die Arbeit durch Robotik und zunehmend auch durch Künstliche Intelligenz (KI). Vor allem schlecht qualifizierte, unflexible Arbeitnehmende drohen aus dem Arbeitsmarkt zu fallen. Es besteht die Gefahr sozialer Ungerechtigkeit. Recht auf Arbeit und Einkommen werden unterminiert. Dies beeinträchtigt die Würde der betroffenen Menschen (Art. 7 Bundesverfassung, BV).

Die ETH Lausanne (École polytechnique fédérale de Lausanne, EPFL), hat zusammen mit anderen Partnern eine Studie erstellt, mit der das Risiko berechnet wird, wie wahrscheinlich es ist, dass eine bestimmte Berufsgruppe bzw. bestimmte Berufe durch Roboter bzw. digitale Tools ersetzt werden. Unter folgendem Link kann jede/r selbst checken, wie hoch das Risiko in Bezug auf den eigenen Beruf ist (nur in Englisch): https://lis2.epfl.ch/resiliencetorobots/#/.

Massenüberwachung

Eine permanent zunehmende, umfangreiche Überwachung, insbesondere von grossen Teilen des Internets, unterminiert die Privatsphäre der Betroffenen bzw. User und damit deren persönliche Freiheit, Selbstbestimmung uns Selbstentfaltung.

Soziale Medien

Im Bereich der sozialen Medien ist die ethische Problematik zweischneidig. Einerseits ist die (relativ) objektive Information durch Social Bots, Fake News und gefälschtem Content gefährdet. Andrerseits gefährden inadäquate staatliche und Gegenmassnahmen der entsprechenden Plattformen selbst u.a. das Recht auf freie Meinungsäusserung und Information (Art. 16 f. BV).

Big Nudging

Beim Nudging (engl. to nudge = stupsen, anstupsen, schubsen) bzw. Big Nudging geht es um die Beeinflussung des Verhaltens einer grossen Anzahl Menschen mittels personalisierter Information auf unbewusster Ebene. Beim Nudging besteht ein Wertekonflikt zwischen der Wohlfahrt einerseits und der Autonomie der Betroffenen (insb. Bürgerinnen und Bürger) andererseits. Nudging ist insbesondere dann ethisch problematisch, wenn für die Betroffenen intransparent und unausweichlich. Nudging kann speziell die Privatsphäre, die Freiheit und die Eigen- bzw. Selbstverantwortung der Betroffene beeinträchtigen. Die Expertengruppe (s. vorne) nennt als Beispiele von Nudging die Steuerung von Energieverbrauch und Verkehr; besonders negativ und natürlich auch illegal die Wahlmanipulation.

Prädiktive Modellierung und Kontrolle

Bei der prädiktiven Modellierung und Kontrolle wird die digitale Technologie zur Vorhersage und Kontrolle sozialer Prozesse verwendet. Wie das Big Nudging (s. vorne) dient auch die prädiktive Modellierung und Kontrolle der Beeinflussung des Verhaltens der Betroffenen bzw. der User, ohne dass diese individuell in den Entscheidungsprozess einbezogenen würden. Diese Praxis kann gegen das Grundrecht der Menschenwürde verstossen (Art. 7 BV). Anwendungsbeispiele sind Online-Werbung/Marketing, Spam-Erkennung, Betrugs-Erkennung, Kapazitätsplanung, Change Management, Disaster Recovery, Sicherheits-Management, Stadtplanung, Epidemien-Management.

Citizen Score

Beim Citizen Score handelt es sich um ein Konzept der digitalen sozialen Kontrolle, mit dem politisch oder wirtschaftlich erwünschtes Verhalten erzwungen wird, indem der persönliche Punktestand z.B. über den Zugang zu Arbeitsplätzen, Dienstleistungen oder Kreditkonditionen entscheidet. Ein Beispiel ist das Sozial-Kreditsystem Chinas. Die Anwendung eines Citizen Score zerstört den gesellschaftlichen Pluralismus. Er fördert Untertanenmentalität statt Verantwortungsbewusstsein. Gesellschaftlicher Pluralismus und Verantwortungsbewusstsein sind aber Voraussetzungen für ein menschenwürdiges Leben (Art. 7 BV).

Vollautomatisierte Entscheidungsalgorithmen

In der digitalen Welt gibt es Dilemmata, die einer digitalen Lösung bedürfen, also einer Entscheidung durch Algorithmen. Beispiele sind selbstfahrende Autos, die z.B. darüber entscheiden müssen, ob das Auto, das nicht mehr rechtzeitig anhalten kann, ein Kind auf dem Fussgängerstreifen überfährt oder auf das Trottoir ausweicht, wo eine alte Frau läuft. Ein anderer, entsprechender Problembereich sind autonome Waffensysteme. Beim Versuch der Lösung dieser Dilemmata besteht das Risiko, dass menschliche Eigenschaften, wie z.B. Alter, Bildung, Einkommen, gegeneinander aufgerechnet werden. Bei vollautomatisierten Entscheidungsalgorithmen ist Transparenz betreffend Grundlagen der Entscheidfindung, der Nachvollziehbarkeit und der Verantwortung besonders wichtig.

Cyberrisiken

Cyberrisiken gefährden insbesondere die Souveränität von Individuen und Unternehmen. Aber auch eine inadäquate Cybersecurity kann Grundrechte beeinträchtigen.

12 Digital Ethics