Darian ist Mitte fünfzig und Philosoph – Vollzeit. Seine Freunde beschreiben ihn als liebenswürdigen und lebensfrohen Menschen, der sich in gemeinnützigen Projekten engagiert. Schon zu seiner Schulzeit war er politisch aktiv. Er studierte Philosophie, Politik und Wirtschaft in England und Amerika, um mehr über die Welt zu lernen und darüber, wie er sein altruistisches Engagement am besten ausrichtet. Er fühlt sich generell privilegiert und möchte seine Möglichkeiten nutzen, um einen Beitrag zu gesellschaftlichen Problemen zu leisten. Seine Promotion und anschließende wissenschaftliche Karriere fokussierten sich auf die Ethik. Ihn treibt die Frage um, wie er am besten Gutes tun kann und was das überhaupt bedeutet. Auf keinen Fall möchte er gravierende moralische Fehler begehen. Er hat zahlreiche Bücher zur Moralphilosophie publiziert und sein Beruf verlangt eine ständige Auseinandersetzung mit dieser. Darian kennt sich mit den großen Ethiken aus. Aristoteles‘ Nikomachische Ethik, Kants kategorischen Imperativ und Mills Utilitarismus. Sie alle waren große Denker mit ausgefeilten Konzepten darüber, wie wir uns in Bezug auf andere verhalten sollten. Das kleine Problem mit einer Fülle an Ethiken ist, dass sie in verschiedenen Entscheidungssituationen verschiedene Handlungen und Gedanken für richtig oder falsch halten. Was soll man nun in einer schwierigen Entscheidungssituation tun, in der es potenziell um Leben und Tod geht und in der zwei Ethiken gar gegensätzliches empfehlen, jeweils mit ganzheitlichem Geltungsanspruch?
Darian ist Experte. Man möchte meinen, dass er weiß, was zu tun ist, aber Darians überdurchschnittlich breites und tiefes Verständnis der Theorie und Geschichte von Ethik hilft ihm nur begrenzt, moralische Entscheidungen zu treffen. Während seine Kolleginnen und Kollegen sich gerne einer Ethik verschreiben und sich als „Utilitaristin“ oder „Kantianer“ bezeichnen, hält er das für riskant. Er bezeichnet sich als eine Mischung aus allem – er sei eben moralisch unsicher. Aber was bedeutet das?
Empirische versus moralische Unsicherheit
Das Konzept der empirischen Unsicherheit bietet einen leichten Einstieg, um zu verstehen was moralische Unsicherheit meint. Empirische Unsicherheit kennt man. Es beschreibt eine Unsicherheit über Fakten der Welt. Ich möchte beispielsweise spazieren gehen und überlege, ob ich eine Regenjacke mitnehme. Ich weiß aber nicht, ob es trocken bleiben wird. Ich bin unsicher über empirische Informationen, die Regenwahrscheinlichkeit, die ich allerdings herausfinden kann. Ich könnte zum Beispiel abwarten, ob es regnet oder nicht. Oder ich schaue mir die Wettervorhersage an. Auch wenn ich dieser nicht immer vollständig vertrauen kann, beseitigt sie immerhin mein vorheriges nahezu Unwissen und es bleibt nur noch eine geringfügige Unsicherheit. Jedenfalls habe ich keine moralischen Zweifel bei meiner Jackenwahl.
Bei entscheidungstheoretischen Problemen ist es nicht nur die empirische Unsicherheit, die Entscheidungen erschwert. Selbst bei vollem Wissen über den Zustand der Welt in jeder Situation müssen wir normative Kriterien wählen, nach denen wir die Richtigkeit oder Falschheit von Konsequenzen und Handlungen beurteilen. Manchmal ist man sich unsicher wie schlimm eine Handlung, ein Gedanke oder eine Konsequenz ist, selbst wenn man weiß, was diese Konsequenz wäre. Welche moralischen Kriterien das sein sollen, ist keine triviale Frage. Es gibt plausible Vorschläge in der Ethik, zum Beispiel von Kant, Mill, Aristoteles und vielen mehr. Ethik ist anspruchsvoll. Um die richtigen Kriterien oder eine Moraltheorie zu erarbeiten, muss man Intuitionen und verschiedene theoretische Überlegungen zur Plausibilität, Gedankenexperimente oder die Eleganz einer Theorie richtig abwägen. Dabei sind sich Moralphilosophinnen und Moralphilosophen in den letzten Jahrhunderten nicht einig geworden. Vielleicht sollten wir also akzeptieren, dass es nicht die eine moralische Wahrheit gibt, zumindest ist diese bisher nicht auf Konsens gestoßen. Für Menschen wie Darian, die ihre Unsicherheit anerkennen und versuchen wollen mit ihren Entscheidungen möglichst keine moralischen Fehler zu begehen, braucht es also eine neue Entscheidungstheorie auf übergeordneter Ebene. Die Suche nach einer Solchen versuchen MacAskill, Bykvist und Ord in ihrem 2020 erschienenen Buch „Moral Uncertainty“ zu beschreiben. Folgendes Beispiel illustriert den grundlegenden Gedanken.
Das Abendessen – ein Beispiel [1]
Darian sitzt im Restaurant und sucht sich ein Gericht zum Abendessen aus. Es gibt heute nur zwei Optionen. Eine Suppe mit Fleisch und ein vegetarisches Nudelgericht. Er selbst glaubt eigentlich nicht, dass es falsch sei, Tiere zu essen. Er isst gerne Fleisch. Es ist für ihn ein Stück Tradition. Heute macht es für ihn aber keinen Unterschied. Er hat ähnlich viel Lust auf das Nudelgericht, es sieht auch wirklich gut aus. Nun sitzt er vor der Karte und erinnert sich an seine guten Freunde, die kein Fleisch essen. „Aus moralischen? Überlegungen!“, sagen sie. Erst am Vorabend ist es zu einem Gespräch darüber gekommen und sie haben ihm die Gründe für ihren Verzicht dargelegt. Tiere empfänden Schmerz. Sie würden unnötig getötet werden. Die Umweltbelastung durch Massentierhaltung sei nicht nachhaltig und überhaupt sei eine überwiegend pflanzliche Ernährung besser für die Gesundheit. Überzeugt haben sie Darian nicht, aber zwei Dinge lassen ihn nun doch zu der Sichtweise seiner Freunde zurückkehren. Erstens scheinen ihm diese Argumente nicht unplausibel. Einige Fakten müsste er nachschauen, aber, dass Leid moralisch relevant sind, hält er durchaus für möglich und nicht notwendiges Töten hält er auch für falsch. Vielleicht sogar bei nicht-menschlichen Wesen. Zweitens sind es nicht nur seine Freunde, die Tieren moralischen Wert zusprechen. Auch in einem Kolloquium mit zwei seiner Promotionsstudentinnen war er angetan von der stringenten Argumentation, die strengeren Tierschutz fordert.
Diese Überlegungen verleiten ihn dazu eine bewusste Entscheidung zu treffen. Darian wählt das vegetarische Gericht. Er wählt das vegetarische Gericht nicht, weil er seine Meinung zum Wert von Tieren geändert hat, sondern aus Unsicherheit heraus. Es ist ihm im Großen und Ganzen egal, was er heute Abend isst. Vielleicht wäre die Suppe mit Fleisch heute etwas leckerer, aber was, wenn seine Freunde Recht haben? In dem Fall würde er zu einer moralischen Katastrophe beitragen und das ist es ihm nicht wert. Er möchte dieses Risiko nicht eingehen.
Die Theorie
Nun ein kurzer Sprung in die Theorie. Das eben angeführte Beispiel des Akademikers Darian illustriert das Konzept der moralischen Unsicherheit. Dem Konzept liegt meist ein moralischer Realismus zu Grunde (es lässt sich allerdings auch mit anderen metaethischen Grundlagen sinnvoll erklären)[2]. Das bedeutet im Grunde, dass es objektiv falsche und wahre moralische Tatsachengeben muss, damit man über diese unsicher sein kann. Nimmt man also zum Zwecke des Arguments diese metaethische Annahme hin, wie sollten Entscheidungen unter moralischer Unsicherheit getroffen werden?
Die in diesem Beitrag zitierte Literatur argumentiert, dass der Standardansatz für rationale Entscheidungsfindung unter moralischer Ungewissheit analog zum utilitaristischen Standard „Maximierung des erwarteten Nutzens“ unter empirischer Ungewissheit gewählt werden sollte, weil die Minimierung moralischer Risiken im Vordergrund steht.
Ein Ansatz, der derzeit einen großen Teil der akademischen Aufmerksamkeit in diesem Bereich erhält, wird „Maximierung der erwarteten Wahlwürdigkeit“ (im Original „Maximizing Expected Choice-worthiness“) genannt, wobei die erwartete Wahlwürdigkeit einer Option A die Stärke der Gründe darstellt, die man hat, um A zu wählen, wobei alle Ansichten berücksichtigt werden, die man subjektiv für plausibel (im Original „credence“) hält.[3] Dieser Ansatz findet in folgendem Szenario Anwendung, wie es von MacAskill und Ord in ihrem 2018 erschienenen Paper „Why Maximize Expected Choice-Worthiness?“ beschrieben wird: Der Entscheider (Darian) wählt aus einer Menge von erschöpfenden und sich gegenseitig ausschließenden Optionen (A, B, C, …), z.B. (Suppe, Nudeln). Da der Entscheider (Darian) moralisch unsicher ist, hält er eine Menge von normativen Theorien erster Ordnung (T1, T2, T3, …) für plausibel. Diese Plausibilität beschreibt die subjektive Wahrscheinlichkeit, dass man eine Theorie für wahr hält und kann zwischen 0% und 100% liegen. Diese Theorien können vollständige, eigenständige normative Theorien sein, wie zum Beispiel eine bestimmte Form des Utilitarismus. Sie können jedoch genauso gut partiell spezifizierte Theorien darstellen, oder bestimmte normative Überlegungen zu den vorliegenden Optionen, z.B. ob Töten gleichbedeutend mit Sterbenlassen ist.[4] Oder wie bei Darian seine Ansicht „Tiere zählen moralisch nicht“ und die seiner Freunde „Tiere zählen moralisch“.
Die betrachteten Theorien „bewerten“ Optionen in Bezug auf die Wahlwürdigkeit, die die Stärke der Gründe für die Wahl einer bestimmten Option darstellt. Diese ist jedoch nicht notwendigerweise quantifizierbar. Die Maximierung erwarteter Wahlwürdigkeit ist nur dann ohne weiteres anwendbar, „wenn alle betrachteten moralischen Ansichten einen intervallskalierbaren und intertheoretisch vergleichbaren Begriff der Wahlwürdigkeit liefern.“[5] Für Ansichten, die diesen Kriterien nicht gerecht werden, gibt es weitere Vorschläge der Einbindung, zum Beispiel Wahlmethoden, die Optionen lediglich ordinal ordnen können.[6]
Die erwartete Wahlwürdigkeit einer Option A wird dann berechnet, indem man die Glaubwürdigkeit, die man einer Theorie zuschreibt („Wie wahrscheinlich ist es, dass diese Theorie wahr ist?“), mit der Wahlwürdigkeit multipliziert, die diese spezifische Theorie der vorliegenden Option zuschreibt („Die Theorie sagt, dass das Nudelgericht5 [Einheiten der Wahlwürdigkeit] wahlwürdig ist“). Dann würde man dies für alle Theorien tun, die man für mehr als null plausibel hält, und sie zusammenzählen. Das Ergebnis ist eine Zahl, die angibt, wie wählbar diese Option für den Entscheider (Darian) nach seinen Überzeugungen insgesamt ist. Wenn man dies für alle Optionen macht, kann man die Optionen vergleichen und die mit der höchsten Wahlwürdigkeit wählen.
Angenommen, Darians Glaube an die Ansicht „Tiere sind moralisch wichtig“ beträgt 90 % und sein Glaube an die alternative Ansicht seiner Freunde 10 %. Seine Entscheidungssituation sieht wie folgt aus:
Tiere sind wichtig (10%) | Tiere sind nicht wichtig (90%) | |
Wähle die Fleisch-Suppe | -1000 | 10 |
Wähle das vegetarische Nudelgericht | 5 | 5 |
Nehmen wir an, die Zahlen in der Tabelle stellen dar, wie wahlwürdig die jeweilige Theorie die vorliegende Option beurteilt. Zum Beispiel ist bei der Ansicht „Tiere sind moralisch wichtig“ das Essen von Fleisch wählbar -1000 (moralische Katastrophe), während das Essen des Nudelgerichts bei beiden Ansichten wählbar 5 ist. Wählbar ist demnach als Kategorie zu denken, die eine Aussagen darüber trifft, wie gut die Option gegeben der Ansicht oder Theorie ist. Offensichtlich ist Lügen schlecht gegeben einer Ethik, die Lügen als falsch beschreibt. Noch schlechter ist möglicherweise Gewalt und noch schlechter Mord. Diese Abstufungen in „Falschheit“ werden häufig in Ethiken gefunden und werden hier im Zahlenwert der Wahlwürdigkeit repräsentiert. Das Ziel der Verwendung von Zahlen ist also weniger die genaue Quantifizierung von Werten verschiedener Ethiken, die sowieso nicht eindimensional fassbar sind. Vielmehr geht es darum zu repräsentieren, welche Optionen besser und welche schlechter sind, gegeben einer Ethik und auch die häufig verfügbare Information darüber wie viel schlechter es wäre zu fassen.
Nun wird die erwartete Wahlwürdigkeit des Fleischessens durch die Multiplikation von Plausibilität und Wahlwürdigkeit über alle Optionen berechnet und aufsummiert. Dieser Ansatz ist analog zur Erwartungswertmaximierung der Entscheidungstheorie, häufig genutzt in ökonomischen Kontexten. Fleisch essen hat für Darian eine erwartete Wahlwürdigkeit von -1000×10%+10×90%= -9100 [Einheiten der Wahlwürdigkeit], während vegetarisch essen eine erwartete Wahlwürdigkeit von 5×10%+5×90%=500 [Einheiten der Wahlwürdigkeit] hat. In diesem vereinfachten Beispiel wäre „vegetarisch essen“ die Option mit der höchsten erwarteten Wahlwürdigkeit und sollte von Darian gewählt werden, weil sie das Risiko eines moralischen Fehlers minimiert. Ende der Theorie.
Implikationen für den ethischen Alltag
So wie in der ethischen Theorie werden wir wahrscheinlich nie moralische Entscheidungen treffen und das ist auch nicht nötig. Es braucht keine komplizierten Rechnungen, um das Potential des Konzepts der moralischen Unsicherheit und dessen praktische Implikationen zu fassen. Diese möchte ich kurz beleuchten.
Im einführenden Beispiel wusste Darian nicht, ob Tiere moralisch zählen. Aber hätten seine Freunde Recht, so würde er zu einer moralischen Katastrophe beitragen, indem er das Fleisch bestellt. Das pflanzliche Gericht kann er ohne moralische Probleme essen. Hätten Sie Unrecht, so könnte er beide Gerichte moralisch unproblematisch verzehren. Es ist für ihn also eine Art Risikoabwägung. Es ist ihm schlicht und einfach zu riskant das Fleisch zu essen, denn er möchte auf seine Um- und Mitwelt achten und nicht selbstsicher behaupten, er wüsste schon selbst was richtig und falsch sei. Denn wenn er ehrlich ist, weiß er es nicht und die informierte Meinung anderer Menschen ist wichtig, um über das eigene Verständnis hinaus zu denken. Wie absurd wäre eine parallele Denkweise bezogen auf empirische Unsicherheit. Man stelle sich jemanden vor, der im Auto viel zu schnell um eine Kurve rast, hinter der ein Fußgängerübergang ist, verneinend, dass dort jemand stehen könne. Er wisse das.
Selbstverständlich weiß er es nicht. Ihm fehlen Informationen und bis er diese erlangt wäre es fahrlässig, keine vorsichtige Abwägung zu treffen und langsam in die Kurve zu fahren. Bis diese Informationen verfügbar sind, ist die Situation des Autofahrers sehr ähnlich zu der von Darian.
Sich der eigenen moralischen Unsicherheit bewusst zu sein regt zu Vorsicht an. Es regt dazu an, nach moralischen Informationen zu suchen und sich eine ausgewogene ethische Meinung zu bilden. Es regt dazu an, sich mit Moralphilosophie auseinander zu setzen und mit anderen ins Gespräch zu treten. Und am Ende kann es Entscheidungen beeinflussen, ohne die Perspektiven von Menschen zu ändern, allein aus Unsicherheit und Vorsicht heraus.
Dis Diskussion sensibilisiert dafür, was auf dem Spiel steht. Selbst wenn wir nie herausfinden werden, ob die Wahl des Gerichts nun richtig war oder nicht, folgt daraus nicht, dass es egal ist, was wir tun. Ganz im Gegenteil: Besonders bei moralischen Entscheidungen, wo das Wohlergehen anderer betroffen ist, scheint gute Entscheidungsfindung besonders relevant.
Ich wünsche mir eine Gesellschaft, die sich ihre Unsicherheit öfter eingesteht. Wir wissen oft nicht, was richtig ist. Also sollten wir nachdenken, lesen, einander zuhören, Perspektiven sammeln, diese im Dialog evaluieren und zu unseren besten Schlüssen kommen.
© Silvana Hultsch
Silvana Hultsch studierte Philosophie und Ökonomie an der Universität Bayreuth. Im Rahmen eines Praktikums arbeitete sie am Forschungsinstitut für Philosophie Hannover.
[1] Entlehnt aus MacAskill, W. (2019). Practical Ethics Given Moral Uncertainty. Utilitas, 31(3), 231–245. https://doi.org/10.1017/S0953820819000013, S.3.
[2] Siehe: MacAskill, W., Bykvist, K., & Ord, T. (2020). Moral Uncertainty. [S.l.]: Oxford University Press.
[3] Vgl. MacAskill, W., Bykvist, K., & Ord, T. (2020). Moral Uncertainty. [S.l.]: Oxford University Press.
[4] Vgl. MacAskill, W., & Ord, T. (2018). Why Maximize Expected Choice-Worthiness? Noûs, 46.6(1), 898. https://doi.org/10.1111/nous.12264
[5] MacAskill, W., & Ord, T. (2018). Why Maximize Expected Choice-Worthiness? Noûs, 46.6(1), 898. https://doi.org/10.1111/nous.12264, S.2.
[6] Vgl. MacAskill, W., Bykvist, K., & Ord, T. (2020). Moral Uncertainty. [S.l.]: Oxford University Press., Chapter 3-4.
0 Kommentare