Ethik in der digitalen Welt

Der dritte Block des CAS Digitale Organisation an der Berner Fachhochschule umfasste die Themen Customer Experience, digitales Marketing und digitale Ethik. Besonders das Philosophieren über die ethischen Dimensionen der Digitalisierung unter der Anleitung von Matthias Zehnder hat mich beeindruckt. In einer Zeit, in der technologische Innovationen den Alltag dominieren, ist es ein Privileg, sich einen ganzen Tag lang intensiv mit Fragen der Moral und Ethik auseinanderzusetzen.

Der Diskurs über Tugendethik und Nutzethik, insbesondere im Kontext von ethischen Dilemmata wie dem Trolley-Problem und dem Organ-Problem, hat meine Perspektive auf die moralischen Herausforderungen der modernen Gesellschaft geschärft. Diese ethischen Theorien bieten unterschiedliche Herangehensweisen zur Beurteilung moralischer Fragen, die speziell in der digitalen Welt von grosser Bedeutung sind.

Erst kommt das Fressen, dann die Moral.

Bertolt Brecht

Dramatiker, Librettist und Lyriker

Tugendethik vs. Nutzethik

Die Tugendethik, geprägt von Denkern wie Sokrates, Aristoteles und Immanuel Kant, konzentriert sich auf die Charaktereigenschaften und Tugenden des Handelnden. Sie fragt weniger danach, welches Ergebnis in einer spezifischen Situation als moralisch richtig gelten, sondern vielmehr, wie man ein tugendhafter Mensch wird, der in allen Lebenslagen das Richtige tut. Aristoteles betonte, dass Tugenden wie Mut, Gerechtigkeit und Weisheit entwickelt und gepflegt werden müssen, um moralisch gut zu handeln.

Im Gegensatz dazu steht die Nutzethik, die sich stark auf die Konsequenzen einer Handlung konzentriert. Jeremy Bentham, John Stuart Mill und später Peter Singer argumentieren, dass moralisch richtig ist, was das grösste Glück für die grösste Zahl von Menschen bringt. Dies führt zu einer abwägenden Haltung, bei der das Wohl vieler über das Wohl weniger gestellt wird – auch wenn dies das Opfer Einzelner erfordert.

Moralische Zwickmühlen

Diese ethischen Konzepte lassen sich gut anhand von Gedankenspielen wie dem Trolley-Problem und dem Organ-Problem veranschaulichen. Im Trolley-Problem stellt sich die Frage, ob es moralisch vertretbar ist, eine Person zu opfern, um fünf andere zu retten. Die Tugendethik würde hier wohl eher die Charakterstärke und Absichten der handelnden Person analysieren, während die Nutzethik die Zahl der geretteten Leben gegen das Opfer einer einzelnen Person abwägt.

Das Organ-Problem führt diese Überlegungen auf die Spitze. Ist es gerechtfertigt, einen unschuldigen Obdachlosen zu töten, um fünf Menschenleben zu retten? Für die Nutzethik könnte dies – rein theoretisch – gerechtfertigt sein, wenn das Wohl der Mehrheit maximiert wird. Die Tugendethik hingegen würde dies als moralisch verwerflich betrachten, da der Akt des Tötens selbst eine schwerwiegende Verletzung der menschlichen Würde und der moralischen Integrität darstellt.

Konstruktivismus und die Wahrnehmung von Wirklichkeit

Paul Watzlawicks Konstruktivismus bringt eine faszinierende Perspektive in die Diskussion um ethische Dilemmata wie das Trolley-Problem ein. Er postuliert, dass es keine objektive Wirklichkeit gibt, sondern nur individuell wahrgenommene Realitäten, die aus Sinnesreizen und Erinnerungen konstruiert werden. Doch was bedeutet das konkret für unsere moralischen Entscheidungen?

Stellen wir uns vor, dass die Person, die auf dem Gleis steht, deine eigene Grossmutter ist. Würdest du in diesem Fall immer noch die Weiche umlegen, um fünf Fremde zu retten? Oder wie würdest du entscheiden, wenn einerseits fünf Kinder stehen und andererseits ein alter, kranker Mensch mit nur noch wenig Lebenserwartung? Sind Menschenleben also unterschiedlich viel Wert? Solche Fragen zeigen, dass unsere Wahrnehmung der Situation und die damit verbundenen emotionalen Bindungen unsere ethischen Urteile erheblich beeinflussen können. In einer solchen Konstruktion der Realität wird klar, dass Moral oft subjektiv ist und stark von den individuellen Umständen abhängt.

Ethik im digitalen Zeitalter: Was bedeutet das für autonome Systeme?

Die Diskussion um ethische Dilemmata ist nicht nur theoretisch relevant, sondern hat auch konkrete Implikationen für die digitale Welt, in der wir leben. Ein aktuelles und dringliches Beispiel ist die Programmierung von autonomen Fahrzeugen wie denen von Tesla. Wie sollte ein selbstfahrendes Auto in einer Situation reagieren, die einem Trolley-Problem ähnelt? Was wäre, wenn das Fahrzeug zwischen drei Optionen wählen müsste: Nach links ausweichen, wo jedoch ein unschuldiges Kind steht, oder nach rechts ausweichen und eine alte Frau treffen? Sollte der Wert eines Menschenlebens anhand definierten Variablen in dieser Sekunde kalkuliert werden? Oder sollte die Technik doch nicht eingreifen, geradeaus in den Baum fahren – und so den Fahrer und Besitzer opfern?

Hier entsteht eine tiefere Diskussion: Welchen Unterschied macht es, ob diese Entscheidung von einem Menschen oder von einem System getroffen wird? Wenn ein Mensch am Steuer sitzt und in einem Bruchteil einer Sekunde eine Entscheidung trifft, so ist diese Entscheidung das Resultat eines komplexen Zusammenspiels von Emotionen, Erfahrungen und möglicherweise moralischen Überzeugungen. Auch wenn die Entscheidung tragisch ist, können wir nachvollziehen, dass sie unter extremem Druck und in einer Ausnahmesituation getroffen wurde.

Wenn jedoch ein Computer, ein autonomes System, diese Entscheidung trifft, ändert sich die Dynamik grundlegend. Der Computer entscheidet nach programmierten Algorithmen und festgelegten Parametern, ohne emotionale oder moralische Abwägungen, wie sie einem Menschen eigen sind. Diese Entscheidungen sind möglicherweise rationaler und objektiver, aber sie entbehren der menschlichen Komponente, die oft als entscheidend für die moralische Akzeptanz gilt. Hier stellt sich die Frage: Wollen wir, dass Maschinen über Leben und Tod entscheiden, oder gehört diese Verantwortung in die Hände von Menschen?

Moral ist schlecht für das Geschäft.

Gordon Gekko

Charakter im Film «Wall Street»

Reflexion: Die digitale Ethik als Herausforderung unserer Zeit

Die Reflexion über diese ethischen Fragen zeigt, dass wir uns in einer Zeit befinden, in der technologische Entwicklungen und moralische Entscheidungen untrennbar miteinander verbunden sind. Wenn wir über die Programmierung autonomer Systeme nachdenken, müssen wir uns bewusst sein, dass diese Systeme nach bestimmten moralischen Prinzipien handeln werden – Prinzipien, die von uns Menschen festgelegt werden.

Doch welche Prinzipien sollen das sein? Sind wir bereit, Entscheidungen zu treffen, die das Leben von Menschen auf solch fundamentale Weise beeinflussen? Wie definieren wir den Wert eines Menschenlebens in einer digitalisierten Gesellschaft? Diese Fragen zwingen uns dazu, unsere eigenen moralischen Überzeugungen zu hinterfragen und darüber nachzudenken, welche Art von Zukunft wir gestalten wollen.

Die Auseinandersetzung mit diesen Themen hat mir persönlich gezeigt, dass Ethik nicht nur ein theoretisches Konzept ist, sondern eine praktische Notwendigkeit in unserer digitalisierten Welt. Viel zu oft denken wir zu kurzfristig und egoistisch, was langfristig weder Gesellschaft noch Individuum Erfolg bringt. Es ist entscheidend, dass wir uns aktiv mit diesen Fragen auseinandersetzen, um sicherzustellen, dass unsere technologischen Fortschritte im Einklang mit unseren moralischen Werten stehen. Nur so können wir eine Zukunft gestalten, in der technologische Innovationen nicht nur effizient, sondern auch ethisch verantwortungsvoll sind.