50 Schlüsselideen der Menschheit.pdf

November 24, 2017 | Author: tifa29 | Category: Plato, Golden Rule, Aristotle, Altruism, Transcendence (Philosophy)
Share Embed Donate


Short Description

Download 50 Schlüsselideen der Menschheit.pdf...

Description

Sachbuch

50

Ben Dupré

schlüssel ideen der menschheit

Ben Dupré

50 Schlüsselideen der

Menschheit

Aus dem Englischen übersetzt von Regina Schneider

S~

Inhalt Einleitung 3

PHILOSOPHIE 01 Platonismus 4 02 Aristotelismus 8 03 Die Goldene Regel 12 04 Altruismus 16 05 Freiheit 20 06 Toleranz 24 07 Skeptizismus 28 08 Vernunft 32 09 Strafe 36 10 Materialismus 40 11 Relativismus 44 12 Utilitarismus 48 13 Existenzialismus 52

RELIGION 14 Das Böse 56 15 Schicksal 60 16 Seele 64 17 Glaube 68 18 Fundamentalismus 72 19 Atheismus 76 20 Säkularismus 80 21 Kreationismus 84

POLITIK 22 Krieg 88 23 Pflicht 92 24 Utopie 96 25 Liberalismus 100 26 Demokratie 104 27 Konservatismus 108

28 Imperialismus 112 29 Nationalismus 116 30 Multikulturalismus 120 31 Gesellschaftsvertrag 124 32 Republikanismus 128 33 Kommunismus 132 34 Faschismus 136 35 Rassismus 140 36 Feminismus 144 37 Islamismus 148

WIRTSCHAFT 38 Kapitalismus 152 39 Globalisierung 156

KUNST 40 Klassizismus 160 41 Romantik 164 42 Moderne 168 43 Surrealismus 172 44 Zensur 176

WISSENSCHAFT 45 Evolution 180 46 Gaia 184 47 Chaos 188 48 Relativität 192 49 Quantenmechanik 196 50 Urknall 200 Glossar 204 Index 206 Impressum 208

Einleitung

Einleitung „Nichts auf der Welt ist so mächtig wie eine Idee, deren Zeit gekommen ist.“ Der französische Schriftsteller Victor Hugo verstand genau, dass relevantes Gedankengut mit dem richtigen Zeitpunkt zusammentreffen muss, um zu einer wirklich bahnbrechenden Idee zu werden – einer Idee, die dazu geboren ist, die Welt aus den Angeln zu heben, die wahrhaft groß ist. Doch Größe kann vielerlei Gewänder tragen: groß und schön, groß und hässlich, groß und furchterregend. Ideen können all diese mannigfaltigen Formen annehmen und somit bewundernswert, verachtenswert oder bedrohlich sein. In diesem Buch will ich all diese Formen darstellen. Ziel der Philosophie, so Adam Smith, ist es, „die verborgenen Zusammenhänge zwischen den verschiedenen Erscheinungsformen der Natur offen zu legen“. Im Lichte solch hehrer Ziele nimmt es kaum Wunder, dass mit die größten aller großen Ideen von Philosophen formuliert worden sind. Eine Auswahl derselben, die sich über zweieinhalbtausend Jahre entwickelt haben, enthält dieses Buch. Nicht minder tiefgründig nimmt sich der oftmalige Feind und gelegentliche Mitstreiter der Philosophie aus: die Religion – der spirituelle Weg zu einer anderen Art von Wahrheit. Glaube, Seele sowie andere zentrale Ideen der Religion dienen dazu, sich ein grundlegendes Verständnis zu verschaffen darüber, wie Menschen den Wert und den Sinn des Lebens beurteilen. Gleichzeitig haben Gegenströmungen wie Atheismus und Säkularismus zu neuen und bezeichnenden Perspektiven der Weltsicht beigetragen. Der witzelnde Satz des amerikanischen Humoristen Will Rogers, Kommunismus sei wie Prohibition – „eine gute Idee, aber sie funktioniert nicht“ –, ist zumindest in beiderlei Hinsicht halb falsch: Wie man auch immer dazu stehen mag, der Kommunismus dürfte wohl zu den erfolgreichsten politischen Ideologien gehören, die jemals zu Papier gebracht worden sind. Der Kommunismus wird hier zusammen mit anderen bahnbrechenden Ideologien wie dem Konservatismus, Liberalismus und Republikanismus präsentiert. Sehr viel dunkler dagegen ist das Vermächtnis anderer politischer Ideenlehren. Insbesondere haben Faschismus und Rassismus ihr unauslöschbares Schandmal in der menschlichen Geschichte hinterlassen. Im letzten Teil des Buches werden umgestaltende Ideen aus Kunst und Wissenschaft beleuchtet. Dort wandern wir entlang der künstlerischen Zeitschiene der menschlichen Kultur durch vorherrschende Bewegungen wie Klassizismus, Romantik und Moderne. Auf den ersten Blick mögen wissenschaftliche Gedankenmodelle wie die Relativitätstheorie und die Quantenmechanik abschreckend erscheinen, doch sind sie in ihrem Gesamtaufbau durchaus zugänglich und ehrfurchtgebietend. Das Buch erzählt von vielen wundervollen Ideen, aber auch von einigen grauenvollen. Sollten Sie, werter Leser bei der Lektüre nicht eine gewisse Ehrfurcht verspüren, so ist das sicherlich meine Schuld: Die hier präsentierten Ideen sind bis heute groß, lediglich die schriftliche Darlegung lässt sie kleiner werden. Mein Dank geht an meinen unerschütterlichen Lektor, Nick Hutchins, sowie an den Programmleiter Richard Milbank, auf dessen Unterstützung und Freundschaft ich mich immer verlassen konnte und der die geniale Idee zu diesem Buch überhaupt erst hatte. Abschließend bedanke ich mich bei meinen eigenen besten Ideen, die sich mit immer weniger Raum zufrieden geben mussten.

3

4

Philosophie

01 Platonismus „Die sicherste allgemeine Charakterisierung der philosophischen Tradition Europas lautet, dass sie aus einer Reihe von Fußnoten zu Platon besteht.“ Zweifelsohne eine eher forsche denn wahre Behauptung. Doch die Tatsache, dass ein Philosoph vom Format eines A. N. Whitehead eine solche überhaupt aufstellen konnte, weist auf die staunenswerte Ehrfurcht hin, mit der spätere Philosophen Platon bis heute hochhalten, diesen Bürger von Athen, der vor nahezu 2500 Jahren geboren wurde. „Der Hauptfehler der Philosophie besteht in der Übertreibung“, hatte Whitehead zuvor in seinem Werk Prozeß und Realität: Entwurf einer Kosmologie (1929) betont – und diese Behauptung klingt zumindest in Bezug auf das oben angeführte Zitat insofern ironisch, als sie selbst offenkundig eine Übertreibung ist. Doch auch wenn Whitehead der westlichen Philosophie nach Platon die gebührende Achtung versagen mag, so ist keineswegs daran zu rütteln, dass Platon einen riesigen Schatten auf spätere Denker geworfen hat. Und auch nicht daran, dass viele von ihnen ihre Ideen in kreativer Auseinandersetzung mit Platons Gedanken – oder als Reaktion auf sie – entwickelt und verfeinert haben. Im Laufe von rund 35 Dialogen, die Platon über ein halbes Jahrhundert hinweg geschrieben hat, findet sich eine Reihe von Lehren (u. a. zur Ethik, Politik und Ästhetik), die sich stetig weiterentwickelt haben und gereift sind. Und der Begriff „Platonismus“ mag sich auf einige oder auf all diese Ideen beziehen. Im Mittelpunkt seiner Philosophie jedoch steht eine bemerkenswert originelle metaphysische Theorie. Sie nimmt die Existenz eines Reichs ewiger und unveränderlicher Realitäten an, die sich von der ständig wechselnden Welt unserer alltäglichen Erfahrung unterscheiden. Diese Entitäten sind sowohl Ursache allen Seins als auch die Wurzel, aus der alle anderen Dinge ihren Wert und ihre Bedeutung beziehen, und im Erkunden ihrer transzendenten Natur und der Art, wie wir von ihnen Wissen erlangen, liegt das charakteristischste Element von Platons Philosophie. Die Bezeichnung „platonisch“ meint streng genommen also genau diesen Aspekt seines Werks. Doch in Erweiterung dieser besonderen Idee einer letztgültigen Wirklichkeit wird der Begriff des Platonismus bisweilen auch auf andere Theorien angewendet, die ihrer Natur nach realistisch (idealistisch) sind. Diese bringen typischerweise vor, dass ab-

Zeitleiste ca.

429 v. Chr.

Platon wird in Athen als Sohn einer aristokratischen Familie geboren

399 v. Chr.

347 v. Chr.

Sokrates, Platons Mentor und Wortführer seiner Dialoge, wird hingerichtet

Todesjahr Platons

Platonismus



Deshalb muß man auch trachten, von hier dorthin zu entfliehen aufs schleunigste. Der Weg dazu ist Verähnlichung mit Gott soweit als möglich; und diese Verähnlichung besteht darin, daß man gerecht und fromm sei mit Einsicht. Platon, Theaitetos, ca. 369 v. Chr.



strakte Entitäten, insbesondere mathematische, außerhalb von Zeit und Raum und unabhängig von unserer Kenntnisnahme oder Erfahrung existieren.

Ideenlehre Platons Beweggrund für diesen extremen Realismus ist die Unzufriedenheit über das, was gemeinhin als Wissen über die Welt um uns herum gilt, wo alles unvollkommen und veränderlich ist. Wie können wir wissen, was Größe ist, wenn ein großer Mensch neben einem Baum klein aussieht? Oder wie können wir wissen, was Röte ist, wenn ein Apfel, der im Tageslicht rot erscheint, bei Dunkelheit schwarz aussieht? All diese Dinge, so schließt Platon, sind nicht Gegenstände von (echtem) Wissen, sondern von Meinungen und Annahmen. Nach Platon muss echtes Wissen vollkommen, ewig während und unveränderlich sein. Und da nichts in unserer Erfahrungswelt (im „Reich des Werdens“) ein solches Wissen bieten kann, muss es ein transzendentes „Reich des Seins“ geben, wo es vollkommene und unveränderliche Muster oder Vorbilder gibt. Diese nennt Platon „Ideen“ oder „Formen“, und nur in der Nachahmung oder im Abbild des wahrhaft Seienden (der Ideen) haben die Dinge unserer Erfahrungswelt ihr Sein. Als Abbild der Idee der Gerechtigkeit etwa ist so auch die einzelne gerechte Handlung gerecht. Und wie, so mögen wir uns fragen, erlangen wir Wissen über jene transzendenten Ideen, wenn alles, was durch unsere Sinne erfahrbar ist, nur geringwertige Nachbildungen sind? Platons überraschende Antwort darauf ist, dass wir die Ideen aus einem früheren, jenseitigen Dasein kennen und wir uns daher im jetzigen Dasein nicht in einem Prozess des Lernens, sondern der Wiedererinnerung befinden. Darauf aufbauend entwickelt Platon einen kompromisslosen Dualismus, wonach die unsterbliche Seele vor Eintritt in einen menschlichen Körper existiert. Es ist die Verkörperung, die die Seele belastet und sie veranlasst, Wissen zu vergessen, das sie aus früherer, unmittelbarer Berührung mit den Ideen im Reich des Seins erlangt hat. Das Universalienproblem Platons Ideenlehre mag weit hergeholt erscheinen, doch eines der Hauptprobleme, das sie zu beseitigen sucht, das sogenannte Universalienproblem, ist in der Philosophie seit jeher in der ein oder anderen Gestalt ein

6. Jh. n. Chr.

1929

Boethius eröffnet die mittelalterliche Kontroverse über das Universalienproblem

Erstveröffentlichung des Werks Prozeß und Realität: Entwurf einer Kosmologie des englischen Philosophen A. N. Whitehead

5

6

Philosophie

Platons Höhle Wie komplex und vielschichtig Platons Auffassung von Wissen und Wahrheit ist, wird besonders anschaulich anhand des Höhlengleichnisses, des wohl bekanntesten der vielen Bilder und Analogien, die er entwirft. Das Gleichnis erscheint in seinem berühmten Meisterwerk Politeia wie folgt: Stellen Sie sich vor, Sie wären zeit Ihres Lebens in einer dunklen Höhle gefangen: Hände und Füße sind gefesselt und auch Ihr Kopf ist so festgebunden, dass Sie nur geradeaus auf die Höhlenwand vor sich blicken können. Hinter Ihnen lodert ein Feuer, das einen Schein wirft. Zwischen Ihrem Rücken und dem Feuer befindet sich ein Weg, auf dem Ihre Wärter Statuen und andere Gegenstände hin und her tragen. Die Schatten, die diese Gegenstände auf die Höhlenwand vor Ihnen werfen, sind die einzigen Dinge, die Sie und Ihre Mitgefangenen je gesehen haben, alles, über das Sie je nachgedacht und gesprochen haben. Stellen Sie sich nun vor, Sie würden aus den Fesseln befreit und könnten in der Höhle umhergehen: Im ersten Moment sind Sie geblendet vom Feuer. Ganz allmählich gewöhnen sich Ihre Augen an das Licht, Sie erkennen die Gegebenheiten der Höhle immer deutlicher und verstehen, woher die Schattenbilder

kommen, die Sie bislang für die reale Welt gehalten haben. Und schließlich erlaubt man Ihnen, die Höhle zu verlassen und hinaus zu treten in die sonnenhelle Welt, wo Sie die Fülle der Realität erschauen, beleuchtet vom hellsten aller Himmelsgestirne – der Sonne. Nach gängiger Interpretation steht die Höhle für das „Reich des Werdens“, für die sichtbare, sinnlich erfahrbare Alltagswelt, wo alles unvollkommen und stets veränderlich ist und wo der gewöhnliche Mensch (symbolisiert durch den Gefesselten) in einer Welt der Schattenbilder und Illusionen lebt. Der Befreite, der ungehindert durch die Höhle wandern kann, gelangt zu einer größtmöglichen Erkenntnis der Wirklichkeit innerhalb dieser Scheinwelt. Doch erst wenn er hinaustritt aus der Höhle, in das „Reich des Seins“, erhält er die volle Einsicht in die klare Welt der Wahrheit. Dieses Reich ist erfüllt von vollkommenen, ewig währenden Gegenständen der Erkenntnis, den Ideen, die sämtlich umspannt werden von der Idee des Guten, symbolisiert durch die Sonne, die allen anderen Ideen ihre letztendliche Bedeutung und Wirklichkeit zuweist.

beherrschendes Thema gewesen. Im Mittelalter fand es mit zwei philosophischen Schlachtlinien seinen Höhepunkt: Auf der einen Seite standen die Realisten (oder Platonisten), für die Allgemeinbegriffe wie Röte oder Größe unabhängig von bestimmten roten oder großen Einzeldingen existierten. Auf der anderen Seite standen die Nominalisten, die Allgemeinbegriffe für bloße Namen oder Bezeichnungen hielten, die man mit bestimmten Gegenständen verknüpfte, um bestimmte Ähnlichkeiten zwischen ihnen hervorzuheben. Die gleiche grundlegende Unterscheidung findet bis heute einen Nachhall und reicht in viele Gebiete der modernen Philosophie

Platonismus hinein. So gibt es nach der realistischen Position in der Welt „dort draußen“ durchaus Entitäten (wie physikalische, ethische oder mathematische Gegebenheiten), die unabhängig von unserem Wissen oder unserer Erfahrung existieren. Nach dieser Ansicht entwickelt ein Gebiet wie (sagen wir mal) die Mathematik also keine Beweise, die Entitäten einschließen, die in irgendeiner Weise in den Köpfen der Mathematiker konstruiert werden; vielmehr handelt es sich um das Entdecken von Wahrheiten über bereits bestehende Entitäten. Im Gegensatz dazu steht die als antirealistisch bekannte Position, nach der es eine notwendige und innere Beziehung zwischen den Dingen, die wir wissen, und unserem Wissen um sie gibt. Der grundsätzliche Anstoß zu all diesen Kontroversen aber kam vor über 2000 Jahren von Platon, einem der ersten und extremsten Vertreter aller philosophischen Realisten.

Die Platonische Liebe Die Idee, mit der man Platon heute gemeinhin verbindet, ist die der nicht-körperlichen oder Platonischen Liebe. Diese ergibt sich gleichsam selbstredend aus dem in seiner Philosophie gemachten scharfen Gegensatz zwischen der Verstandeswelt und der Sinneswelt. In seinem Dialog Phaidros erklärt Platon, wie der wahrhaft Verliebte leidenschaftlich bewegt ist von einer göttlich inspirierten Liebe intellektueller Schönheit, die einzig und allein in der Idee des Guten zu finden ist. Die Seele eines solch wahrhaft

Verliebten kommt bildhaft einer Kutsche gleich (einem Seelengefährt), deren Wagenlenker (die Vernunft) das geflügelte Gespann (die wilden, sinnlichen Begierden) der letztgültigen Wahrheit entgegen führt. Platons Philosophie, die die Seele über den Körper erhebt, sowie seine Vorstellung, wonach moralische Stärke in einer wohl geordneten Seele liegt, in der der reine Verstand die niederen körperlichen Begierden in Schach hält, hat das spätere religiöse Denken in weiten Teilen geprägt.

Worum es geht Ideen als transzendente Wirklichkeit

7

8

Philosophie

02 Aristotelismus Für die Gelehrten des Mittelalters war Aristoteles „der Philosoph“. Alle anderen, auch Platon, hat er an Ansehen und Einfluss so eindeutig übertroffen, dass keine genauere Bezeichnung nötig war; in Dantes Inferno ist er schlicht „der Meister der Wissenden“. Durch eine geschickte Synthese mit der christlichen Theologie des 13. Jahrhunderts, die vor allem von Thomas von Aquin geleistet wurde, hatte sich der Aristotelismus schon bald als die neue Dogmatik etabliert. Auch in den folgenden drei Jahrhunderten blieb die Autorität des griechischen Philosophen im mittelalterlichen Europa nahezu unangefochten, und seine philosophische Handschrift durchzog alle Bereiche geistig intellektueller Tätigkeit. Der Respekt, mit dem Aristoteles begegnet wurde, war derart immens, dass seine Philosophie (oder bisweilen auch das, was als seine Philosophie durchging) oft ungefragt bejaht wurde, und zwar so weit, dass sie mit der Zeit den Fortgang behinderte und neue, unkonventionelle Denkweisen erstickte. Die Reaktion, die schließlich auf ein solch sklavisches Festhalten folgte, war eine rigorose Ablehnung der aristotelischen Weltsicht, ein Hauptmotiv in der intellektuellen und wissenschaftlichen Revolution im Europa des 16. Jahrhunderts. Doch obgleich Aristoteles’ Stern im nachfolgenden Zeitraum zu sinken begann, ganz unter ging er nie. Während der letzten Jahrzehnte hat es eine neuerliche Anerkennung der vielfältigen und tiefen Einsichten gegeben, die seine Philosophie eröffnet. Insbesondere auf dem Gebiet der Moralphilosophie hat sein Vermächtnis beigetragen, einen ganz besonderen Ansatz, die sogenannte „Tugendethik“, zu erwecken. Mit der Bezeichnung „aristotelisch“ lassen sich freilich sämtliche oder auch einzelne Lehren des Aristoteles beschreiben, der zu den berühmtesten Philosophen zählt, Schüler Platons und Lehrer Alexander des Großen war sowie im 4. Jahrhundert in Athen eine höchst einflussreiche Schule für philosophische Studien gegründet hat (Lykeion). Heute jedoch wird der Aristotelismus meist im Zusammenhang mit der philosophischen Tradition der Scholastik genannt, die von Thomas von Aquin und anderen sogenannten „Schulmeistern“ (abgeleitet vom mittellateinischen scholasticus) des Mittelalters etabliert wurde. Die Scholastik hat Aristoteles zweifelsohne

Zeitleiste 384 v. Chr.

367–347 v. Chr.

335 v. Chr.

322 v. Chr.

Aristoteles wird in Stagira geboren, einer griechischen Kolonie in Makedonien

Studien an der Philosophenschule Platons in Athen

Gründung des Lykeion in Athen

Todesjahr des Aristoteles

Aristotelismus

Tugendethik In der Moralphilosophie der vergangenen vierhundert Jahre stand zumeist die Handlung im Vordergrund und nicht der Handelnde. Es ging vor allem um die Frage, was der Mensch tun soll, und nicht darum, wie er sein soll. Man befasste sich vornehmlich damit, diejenigen Prinzipien zu erkennen und darzulegen, auf denen tugendhaftes Handeln beruht, und daraus moralische Normen zu formulieren, an denen sich das Handeln orientieren soll. Während des letzten halben Jahrhunderts jedoch begannen einige Denker ihre Unzufriedenheit mit diesem Ansatz zu bekunden. Inspiriert von der Ethik des Aristoteles richteten sie ihr vorrangiges Augenmerk wieder zurück auf Charakteranlagen und Tugenden. So entstand ein neuer Ansatz, der unter der Bezeichnung „Tugendethik“ bekannt ist. Der Begriff der Eudaimonie bezeichnet in der klassischen griechischen Philosophie das höchste Gut und Endziel menschlichen Handelns. Eudaimonie wird zumeist mit „Glück“ oder „Glückseligkeit“ übersetzt, hat genau genommen aber eine sehr viel umfassendere Bedeutung, die man treffender mit einer „gedeihlichen“ oder „guten (erfolg-

reichen, geglückten) Lebensführung“ umschreiben könnte. Im Vordergrund stand also nicht die Frage „Was ist richtiges Handeln (in dieser oder jener Situation)?“, sondern „Was ist die beste Art des (sittlichen) Lebens?“ Nach Ansicht von Aristoteles ist das Wesen des Menschen durch seine Fähigkeit zur Vernunft bestimmt, insbesondere durch den Einsatz der praktischen Vernunft für die beste Art des (sittlichen) Lebens. Eudaimonie besteht daher im „aktiven Wirken der Fähigkeiten der Seele (d. h. ihren rationalen Tätigkeiten) im Einklang mit tugendhafter oder moralische Vorzüglichkeit“. Tugendhaft zu leben bedeutet also in erster Linie, die Art von Person zu sein oder zu werden, die, indem sie durch ständige Einübung ethischer Tugenden Weisheit erlangt, in konkreten Situationen die richtigen Mittel und Wege für ein richtiges Handeln findet. Anders ausgedrückt, aus dem richtigen Charakter und der richtigen inneren Haltung, ob angeboren oder erworben, gedeihen richtige Verhaltensweisen. Und auch nach mehr als 2000 Jahren hat diese Einsicht nichts von ihrer machtvollen Faszination verloren.

enorm viel zu verdanken. Doch dass seine zunehmend dogmatischen Anhänger in ihrem Bemühen, ihn zu verteidigen, über die Zeit zutiefst konservative Tendenzen an den Tag legten, die mit dem wahren Geist seines Werks kaum mehr in Einklang standen, hat beinahe etwas Ironisches.

529 n. Chr.

1266

16.–17. Jh.

Kaiser Justinian lässt heidnische Schulen schließen

Thomas von Aquin beginnt Summa Theologiae, das Hauptwerk der mittelalterlichen Scholastik

Die modernen Weltsichten des Kopernikus, Galileo u. a. ersetzen das Aristotelische Modell

9

10

Philosophie Schüler und Meister Es wird bisweilen etwas vereinfacht gesagt, dass sich die Philosophie des Aristoteles als Antwort auf die seines Lehrers Platon entwickelt hat. Tatsächlich aber ist die Beziehung dieser beiden Philosophen zueinander erheblich komplexer. Der jüngere Aristoteles ist mit seinem Ansatz nicht nur sehr viel systematischer, sondern auch sehr viel themenreicher und leistet bedeutende und oft grundlegende Beiträge in zahlreichen Disziplinen, darunter der Physik, Biologie, Psychologie, Politik, Ethik, Metaphysik, Rhetorik, Ästhetik und Logik. Während Platon mit dem Kopf (beinahe buchstäblich) in den Wolken lebt, bleibt Aristoteles fest auf dem Boden; während Platon weltfremd und abstrakt ist, ein transzendentes Reich der letztgültigen Wirklichkeit postuliert, in dem allein sich wahres Wissen erschließt, bleibt Aristoteles durchweg wirklichkeitsnah und konkret. Stets mit Respekt gegenüber dem gesunden Menschenverstand findet er in der gewöhnlichen Erfahrungswelt eine vollständige und ausrei(… ich glaube), dass in chende Wirklichkeit vor und beharrt, dass hier (und nur hier) der Naturphilosophie wahres Wissen durch intensives Forschen und Fragen erlangt kaum etwas gesagt wor- werden kann. Er arbeitet unermüdlich mit empirischen und den ist, das so absurd praktischen Methoden, sammelt Belege, die er sorgfältig ordnet wäre, wie das, was nun- und klassifiziert sowie methodischen und systematischen Analysen unterzieht, um dann anhand seiner Untersuchungen auf ramehr aristotelische Meta- tionalem, logischem und vernünftig induktivem Wege zu allgephysik genannt wird, oder meinen Schlüssen zu kommen. etwas, das mit der Regierungsgewalt unverträg- Die scholastische Synthese Der Einfluss des Aristoteles licher wäre als vieles von herrscht auch nach seinem Tod jahrhundertelang ungebrochen fort. Dafür sorgt zunächst seine eigene Schule, das Lykeion, spädem, was Aristoteles in ter dann das Werk diverser Herausgeber und Kommentatoren. seiner Politik gesagt hat, Erst als Kaiser Justinian 529 n. Chr. die heidnischen Philosooder etwas, das weniger phenschulen in Athen und Alexandria schließen lässt, gerät ArisKenntnisse verriete als toteles weitgehend aus dem Blick. Bis ins Mittelalter führte die ein Großteil seiner aristotelische Philosophie nun ein Schattendasein. Im Mittelalter stößt die aristotelische Philosophie wieder in der westlichen Ethik. Welt auf ein verstärktes Interesse, als insbesondere Avicenna Thomas Hobbes, 1651 und Averroës die arabischen Texte und Kommentare seiner Werke ins Lateinische übertrugen. Aristoteles wird in den aufkeimenden Universitäten Europas zu einer tragenden Säule. Und das wiederum ist vor allem den Bemühungen zweier Dominikanermönche zu verdanken, Albertus Magnus und seinem Schüler Thomas von Aquin. Letzterer schickt sich teils in Reaktion auf die metaphysischen Abstraktionen der neuplatonischen Theologie an, eine Philosophie zu formen, die den vielen Aspekten des aristotelischen Rationalismus innerhalb der christlichen Theologie Platz bietet. So etwa integriert er in wesentlichen Teilen Aristoteles’ Physik (Darstellung physikalischer Objekte), Dynamik (Analyse von Ort und Bewegung), Epistemologie





Aristotelismus (Betrachtungen über den Erwerb von Wissen) und Kosmologie (ein aus den vier Elementen Luft, Erde, Feuer und Wasser geschaffenes Universum, in dessen Mittelpunkt die Erde ruht, umgeben von konzentrischen Kristallsphären, welche die Planeten halten). Auch die sogenannten „Fünf Wege“ des Thomas von Aquin (fünf Argumente, die ihm als Beweis für die Existenz Gottes dienen) gehen allesamt ansatzweise auf aristotelische Argumente zurück. In der Ausgestaltung seiner naturalistischen Sicht auf das Christentum verficht er – genau wie Aristoteles und in Opposition zu den Neuplatonikern – vor allem den Gedanken, dass der Mensch in erster Linie selbst für sein Tun verantwortlich sei. Eben jener Erfolg der Synthese des Thomas von Aquin erwies Linné und Cuvier sich letztlich als ihr Verderben. Der Aristotelismus etablierte sich rasch als ein unhinterfragtes Dogma, und einige der darin waren meine beiden enthaltenen eher spekulativen Elemente (wie die aristotelische Götter [...], aber im VerVorstellung vom Universum) wurden mit fortschreitenden wisgleich zu Aristoteles senschaftlichen Erkenntnissen zunehmend angreifbar. Die im waren sie doch bloße Grunde teleologisch ausgerichtete Anschauung von Natur (wonach biologische Organismen, Systeme und Vorgänge aus ihren Schuljungen. Zielen und Zwecken heraus erklärbar sind) blieb selbst dann Charles Darwin, 1882 noch als orthodoxe Sicht bestehen, als deren Grundfeste aufgrund der wissenschaftlichen Fortschritte in der Astronomie, der Mechanik und anderen Bereichen längst schwer ins Wanken geraten waren. Die Aristoteliker selbst taten ihrer Sache keinen Gefallen, indem sie halsstarrig ausgerechnet die Aspekte der Aristotelischen Philosophie verteidigten, die am angreifbarsten waren. So erließ das Pariser Parlament 1624 gar ein Dekret, das bei Todesstrafe verbot, „irgendwelche Grundsätze abweichend von Aristoteles zu behaupten oder zu lehren“. Dass es auf dem Höhepunkt der wissenschaftlichen Revolution dann ausgerechnet seine Dunkelheit und Dogmatik war, die den Anhängern der aristotelischen Lehre die größten Vorwürfe einbrachte, entbehrt dabei nicht einer gewissen Ironie; wohl offenbar längst vergessen war, dass die alten Griechen ursprünglich auf eine empirische und wissenschaftliche Methodologie bestanden hatten.





esWissenden“ geht „DerWorum Meister der

11

12

Philosophie

03 Die Goldene Regel Wie heißt es so schön im Volksmund – „Was du nicht willst, das man dir tu, das füg’ auch keinem andern zu.“ Damit ist die sogenannte Goldene Regel, eine der wichtigsten und weltbekannten Grundsätze der Moral schlechthin, in einem Satz zusammengefasst. Sie findet sich in der einen oder anderen Variante in praktisch allen religiösen und moralischen Traditionen. Und es gibt kaum einen Moralphilosophen, der die Goldene Regel nicht zitiert oder sie zumindest mit Bezug zu seinen eigenen Theorien herausgestellt hätte.



Die universelle Anerkennung der Goldenen Regel erklärt sich zum Teil aus ihrer schier unbegrenzten Allgemeingültigkeit. Je nach Bedürfnissen und Vorlieben mag man zu ihren vorherrschenden Facetten wechselseitige Akzeptanz, Vorurteilsfreiheit und Universalität (um nur einige zu nennen) zählen. Gleichzeitig ist sie so einfach formuliert, dass sie gerade deshalb zum leichten Angriffsziel für kritische Scharfschützen wird, die in Zweifel ziehen, ob und inwiefern die Goldene Regel als praktische Handlungshilfe tatsächlich taugt.

Tue anderen nicht an, was du nicht wünschtest, dass man es dir antue … Da du selbst stehen möchtest, hilf anderen dieses Ziel zu erreichen, da du selbst Erfolg wünschst, hilf anderen ihn zu erlangen. Konfuzius, ca. 500 v. Chr.

Quäle niemandem, auf dass niemand dich quäle In ihrem Kern fordert die Goldene Regel Konsequenz. Der Egoist jedoch kann sein eigenes Interesse konsequent verfolgen und erweist sich nicht als inkonsequent, wenn er anderen empfiehlt, ebenso zu verfahren. Menschen haben ganz unterschiedliche Vorlieben. Gut, die große Mehrheit mag keine masochistischen Wünsche hegen; aber was, wenn sich ein Masochist strikt an die sittliche Grundformel hält: Behandelt die Menschen so, wie ihr selbst von ihnen behandelt werden wollt. Doch wenn wir versuchen, die Regel immer wieder neu zu definieren, riskieren wir, ihr Gewicht zu schwächen – so gerne wir auch Kontext und Umstände, in denen sie anzuwenden ist, genauer bestimmen würden. Aber sobald wir zu genau werden, verliert die Regel ihre Universalität und damit auch größtenteils ihren Reiz. Anstatt die Goldene Regel als moralisches Patentrezept zu betrachten, ist es sehr viel ersprießlicher, sie als einen wesentlichen und notwendigen Bestandteil der Fun-



Zeitleiste 1785

1863

Kant definiert den Kategorischen Imperativ in Grundlegung zur Metaphysik der Sitten

J. S. Mill verknüpft die Goldene Regel mit dem Utilitarismus

Die Goldene Regel damente unseres moralischen Denkens zu begreifen; als eine Forderung nicht nur nach Konsequenz, sondern auch nach Fairness; als eine Aufforderung zu versuchen, sich in die Lage des Anderen hineinzuversetzen; dem Anderen den Respekt und das Verständnis entgegenzubringen, so wie man es für sich selbst erwarten würde. So verstanden, ist die Goldene Regel eine nützliche Waffe gegen jene Art von moralischer Kurzsichtigkeit, die manch einen befällt, wenn er die eigenen Belange in Gefahr sieht.



Alles, was ihr also von anderen erwartet, das tut auch ihnen! Darin besteht das Gesetz und die Propheten. Jesus, ca. 30 n. Chr.



Kants Kategorischer Imperativ Obwohl der große deutsche Philosoph Immanuel Kant behauptet, die Goldene Regel tauge aufgrund mangelnder Strenge nicht als Universalgesetz, ist sie in seinem berühmten Kategorischen Imperativ, der seiner gesamten Ethik zugrunde liegt, als fundamentales Prinzip klar ersichtlich. Die Kant’sche Ethik lässt sich durchaus verstehen als ein Projekt, die Goldene Regel so

JFK und die Goldene Regel Ein überaus wirkungsvoller Appell an die sogenannte Goldene Regel kam im Juni 1963 von Präsident John F. Kennedy in einer Fernsehrede an das amerikanische Volk. Zu einer Zeit, da Rassenspannungen und Rassenhass in den USA umschlugen in eine Welle der offenen Gewalt und Demonstrationen, sprach er sich vehement gegen Rassentrennung und Rassendiskriminierung aus: „Im Kern der Frage geht es um gleiche Rechte und Chancengleichheit für alle Amerikaner, darum, dass wir unsere amerikanischen Mitbürger so zu behandeln haben, wie wir selbst behandelt werden möchten. Wenn ein Amerikaner aufgrund seiner dunklen Hautfarbe nicht in

einem öffentlich zugänglichen Lokal zum Essen gehen kann, wenn er seine Kinder nicht auf die besten öffentlichen Schulen unseres Landes schicken kann, wenn er nicht die Regierungsvertreter wählen kann, die ihn repräsentieren, wenn er, kurz gesagt, nicht das erfüllte und freie Leben haben kann, das wir alle wollen, dann frage ich, wer von uns bereitwillig seine Hautfarbe tauschen und an seine Stelle treten würde?“ Angetrieben von Kennedys Appell an Gerechtigkeit und vom Trauma seiner Ermordung sechs Monate später, verabschiedete der Kongress 1964 einige der radikalsten und weitreichendsten Bürgerrechte der USamerikanischen Geschichte.

1952

Juni 1963

R. M. Hare entwickelt in Die Sprache der Moral den Universellen Präskriptivismus

Präsident John F. Kennedy hält eine Grundsatzrede zur Rassengleichheit

13

14

Philosophie nachzubearbeiten, dass sie für alle Handelnden, die den Gesetzen der Vernunft folgen, absolut verbindlich ist. Um zu erklären, was der Kategorische Imperativ ist, führt Kant zunächst aus, was er nicht ist, und stellt ihm den hypothetischen Imperativ gegenüber. Nehmen wir einmal an, ich sage Ihnen, was Sie zu tun haben, und gebe Ihnen den folgenden Befehl (einen Imperativ): „Hören Sie mit dem Rauchen auf!“ Darin enthalten sind eine Reihe von Bedingungen – „wenn Sie Ihre Gesundheit nicht ruinieren wollen“ oder „wenn Sie Ihr Geld nicht in die Luft blasen wollen“. Sind Ihnen Gesundheit und Geld aber egal, werden Sie einen Teufel tun, sich meinem Befehl zu fügen. Beim Kategorischen Imperativ hingegen gibt es keine einSchade niemandem, schränkenden Bedingungen, keine „Wenns“, weder implizit noch explizit. „Du sollst nicht lügen!“ oder „Du sollst nicht töauf dass niemand dir ten!“ sind Vorschriften, die nicht ein bestimmtes Ziel oder Verschade. langen voraussetzen, das Sie haben mögen oder nicht. Vielmehr Mohammed, ca. 630 n. Chr. gebieten sie allen vernunftbegabten Wesen, sie zu befolgen, und zwar bedingungslos und ungeachtet aller Konsequenzen. Im Unterschied zum hypothetischen Imperativ stellt ein kategorischer Imperativ ein Grundprinzip der Moral oder ein moralisches Gesetz dar. Nach Kants Ansicht folgt jede Handlung einer zugrundeliegenden Verhaltensregel oder Maxime. Eine Maxime kann ihrer äußeren Form nach wie ein kategorischer Imperativ erscheinen und dennoch nicht als Moralgesetz gelten. Dann nämlich, wenn sie an einem Test scheitert, der wiederum selbst die höchste oder allumfassende Form des Kategorischen Imperativs ausmacht und klar durchdrungen ist vom Geist der Goldenen Regel:





Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie allgemeines Gesetz werde.

Mit anderen Worten, eine Handlung ist nur dann moralisch statthaft, wenn sie in Einklang steht mit einer Regel, die konsequent und universell auf das eigene Handeln und das aller Anderen anwendbar ist. Nehmen wir einmal an, wir postulieren

Tu, was ich sage, und nicht, was ich selbst tue Das Wesen der Goldenen Regel ist die moralische Konsequenz. Sie zu schmähen und zu brechen gebiert gemeine Heuchler, die selbst nicht nach den Werten leben, die sie predigen: der ehebrecherische Kaplan, der die heilige Ehe preist; der Politiker, der Schmiergelder annimmt, während er sich

über Finanzmauscheleien empört. Der Widerspruch in all diesen Fällen besteht in der Inkonsequenz und Doppelmoral des eigenen Handelns, was sich auf die knappe Formel bringen lässt: Wasser predigen, aber selbst Wein trinken!

Die Goldene Regel die Maxime, Lügen solle moralisch statthaft sein. Lügen wird aber nur vor dem Hintergrund irgendeiner Ebene von Wahrheit überhaupt erst möglich. Denn würde jeder in einem fort lügen, würde niemand irgendwem auch nur ein Wort glauben. Und aus eben diesem Grund würde es uns selbst schaden und wäre in gewisser Weise unsinnig, Lügen als ein universelles Gesetz zu postulieren. Die Forderung der strikten Universalisierbarkeit schließt demzufolge bestimmte Verhaltensweisen schon aus rein logischen Gründen aus.



In der goldenen Regel, die Jesus von Nazareth aufgestellt hat, finden wir den Geist der Nützlichkeitsethik vollendet ausgesprochen. J. S. Mill, Utilitarismus, 1863



Universalisierbarkeit In der Philosophie der neueren Zeit ist einer der einflussreichsten Vertreter der Goldenen Regel der englische Philosoph Richard Mervyn Hare. Nach Hare, der ausgeht vom Kant’schen Verständnis, haben Moralurteile ein präskriptives Element, sie geben uns vor, was wir zu tun bzw. wie wir uns zu verhalten haben. Hares ethischer Theorie (Präskriptivismus) zufolge leiten moralische Begriffe im Wesentlichen das Handeln. Die Aussage „Töten ist falsch“ entspricht dem gebilligten Imperativ „Tu es nicht!“. Nach Hares Theorie gibt es ein bezeichnendes Merkmal, das Moralurteile von anderen Typen von Geboten unterscheidet: Sie sind „universalisierbar“. Wer eine moralische Vorschrift erteilt, legt für jeden (und auch für sich selbst) in maßgeblich ähnlichen Situationen fest, dass sie befolgt werden soll; anders ausgedrückt, ich muss mit der „Goldenen Regel“ einverstanden sein.

esdas geht Was duWorum nicht willst, man dir tu, das füg auch keinem andern zu

15

16

Philosophie

04 Altruismus 11. September 2001. Kurz nach neun Uhr morgens. Wenige Minuten nach dem tödlichen Einschlag der Maschine von Flug 175 der United Airlines in den Südturm des World Trade Center sitzt eine Handvoll Überlebender schreckensstarr und zusammengedrängt in der völlig zerstörten Skylobby des 78. Stockwerks in der Falle, traumatisiert vom grausigen Chaos und Blutbad ringsum, einige mit schweren Verbrennungen. Sie beten und schreien um Hilfe, nicht wissend, dass sie in einem dem Untergang geweihten Turm dem sicheren Tod entgegensehen. Plötzlich, wie aus dem Nichts, erscheint ein junger Mann in zerfetztem T-Shirt, ein rotes Halstuch vor Nase und Mund. In Windeseile schreitet er zur Tat und führt die Gruppe durch einen offenen raucherfüllten Treppenschacht voller Schutt und Trümmer über fünfzehn Stockwerke nach unten (darunter eine junge schwarze Frau, die er auf dem ganzen Weg auf dem Rücken trägt). Dann macht der Lebensretter kehrt, läuft noch einmal treppauf in die Flammenhölle, um weitere heldenhafte Taten zu begehen. Sechs Monate später wurde die Leiche des 24-jährigen Aktienhändlers und freiwilligen Feuerwehrmannes Welles Crowther aus den Trümmern des Südturms geborgen. Binnen weniger Wochen hatten ihn zwei Frauen, die ihm ihr Leben verdankten, als den „Mann mit dem roten Halstuch“ identifiziert. Offenbar hatte er gerade eine zweite Rettungsaktion gestartet, als er unter dem einstürzenden Turm begraben wurde. Als das Maß seines ungeheuren Heldenmuts klar wurde, sprach seine Mutter stolzerfüllt vom „Pflichtbewusstsein“ ihres Sohnes, anderen zu helfen, während sein Vater die Hoffnung zum Ausdruck brachte, dass das verbleibende Gedenken an seinen Sohn allen ein Vermächtnis sei: „Wenn Welles’ Geschichte Menschen hilft, selbstlos an Andere zu denken, dann segne sie Gott, und Gott segne ihn.“ Bemerkenswert ist dabei, dass beide Elternteile den selbstlosen Einsatz ihres Sohnes für Andere herausstellen. Neben seinem außergewöhnlichen Mut gibt er ein besonderes Beispiel für eine menschliche Verhaltensweise, die als Altruismus definiert ist: die Bereitschaft, das Interesse und Wohlergehen der Anderen über das eigene zu stellen, im äußersten Falle auch das eigene Leben zu opfern. Zu behaupten,

Zeitleiste 5. Jh. v. Chr.

1651

Sophisten in Athen vertreten den ethischen Egoismus

Hobbes sieht den psychologischen Egoismus als Grundlage der politischen Theorie

Altruismus das Verhalten des jungen Mannes sei in irgendeiner Weise von Eigeninteresse geleitet gewesen, würde unserem gewöhnlichen Sinn für Moralität zuwiderlaufen, zumal dies seine hervorragenden Heldentaten schmälern würde. Die Idee vom Handeln aus purer Selbstlosigkeit hat seit der Antike für philosophisches Aufsehen gesorgt. Die meisten Sophisten (Philosophen, die sich für ihre Lehre bezahlen ließen), die ihre Klingen mit Sokrates kreuzten, gingen schlagfertig davon aus, dass ein Wohlwollen gegenüber Anderen nur scheinbar sei. In Wahrheit sei es geleitet von Eigennutz, der sich zeige, sobald man an der Oberfläche kratzt. Viele spätere Philosophen sind entweder der Ansicht, dass alles Tun des Menschen tatsächlich allein vom eigenen Interesse geleitet sei (psychologischer Egoismus), oder, dass der Mensch stets tun solle, was für ihn selbst am besten sei (ethischer Egoismus). So etwa betrachtet es Thomas Hobbes als selbstverständlich, dass Menschen im „Naturzustand“ sich in ständigem Wettstreit und KonBei der freiwilligen flikt miteinander sehen, um die eigenen Interessen durchzusetHandlung macht nur die zen, während Friedrich Nietzsche wohlwollende Gesinnungen Natur der Handlungen und altruistische Verhaltensweisen verurteilt als Manifestatiselbst sie ehrenvoll. onen der Sklavenmoral, mit denen die Schwachen die Starken Thomas Hobbes, 1651 unterwerfen. Vor allem in den letzten 150 Jahren, seit Erscheinen des revolutionären Hauptwerks von Charles Darwin, bekamen diese vielen philosophischen Zweifel am Altuismus erneuDer Mensch handelt oft ten Auftrieb durch biologische Zweifel.







wissentlich gegen das eigene Interesse. David Hume, 1740

„Nur die Besten sterben jung“? Der Mensch ist beileibe nicht das einzige Wesen, das altruistische (oder scheinbar altruistische) Verhaltensweisen an den Tag legt. Bestimmte Affenund Rotwildarten geben Alarm- und Warnrufe von sich, wenn sie Raubtiere sichten, um so ihre Gruppe zu schützen, auch wenn sie sich dadurch selbst in Gefahr bringen. Bei den sozialen Insekten, bei Bienen und Ameisen etwa, gibt es bestimmte Kasten, die sich nicht fortpflanzen (und dazu auch nicht in der Lage sind), sondern sich ausschließlich dem Wohlergehen ihrer Staaten widmen. Dass ein solches Verhalten typischerweise instinktiv und nicht „überlegt“ ist, spielt dabei keine Rolle; entscheidend ist, dass diese Tiere die eigenen Interessen, sprich die Weitergabe der eigenen Gene, selbstlos und zum Wohle der Allgemeinheit aufgeben. Ein derart selbstloses Verhalten will nur schwerlich in Darwins evolutionstheoretisches Rahmenwerk passen. Der zentrale Mechanismus der Darwin’schen Evolution ist die natürliche Selektion (Auslese), das „Überleben des Stärkeren“: Nur die Tiere, die ausgestattet sind mit Eigenschaften, die es ihnen ermöglichen, länger zu



1887–1888

1859

11. September 2001

Nietzsche bekämpft den Altruismus, da er den Menschen entmanne

In seinem Werk Entstehung der Arten erklärt Darwin die Evolution durch natürliche Selektion

Anschlag auf das World Trade Center, New York

17

18

Philosophie überleben und somit (im Schnitt) mehr Nachkommen zu zeugen als ihre Artgenossen, werden durch die Natur „ausgelesen“; jene günstigen Eigenschaften können somit tendenziell – sofern sie vererbbar sind – überleben und sich in der Population immer mehr verbreiten. Unter diesen Umständen müssten Tiere sich also so verhalten, dass die eigenen Überlebenschancen erhöht werden und nicht die der anderen. Kein Verhalten könnte mit geringerer Wahrscheinlichkeit die Überlebensaussichten erhöhen als Altruismus und Selbstaufopferung. Von daher müssten wir eigentlich davon ausgehen, dass Tiere mit einer altruistischen Verhaltenstendenz einen enormen selektiven Nachteil haben sollten und von ihren egoistischeren Artgenossen rasch aus der Population „getilgt“ werden. Darwin selbst war sich dieses Problems sehr wohl bewusst. In seinem Werk Die Abstammung des Menschen und die geschlechtliche Zuchtwahl (1871) fasst er es folgendermaßen zusammen: Es ist äusserst zweifelhaft, ob Nachkommen der sympathischeren und wohlwollenderen Eltern … in einer grösseren Anzahl aufgezogen wurden als Kinder selbstsüchtiger und verrätherischer Eltern (desselben Stammes). Wer bereit war, sein Leben eher zu opfern als seine Kameraden zu verrathen (wie es gar mancher Wilde gethan hat), der wird oft keine Nachkommen hinterlassen, welche seine edle Natur erben könnten.

„Ein Stück Tyrannei gegen die Natur“ Einen der schärfsten und einflussreichsten Angriffe auf den Altruismus (und gegen konventionelle Moralvorstellungen ganz allgemein) startete der deutsche Philosoph Friedrich Nietzsche gegen Ende des 19. Jahrhunderts. Gemeinsinn und Wohlwollen sind für ihn „ein Stück Tyrannei gegen die Natur“, eine Umkehrung oder Perversion der natürlichen Ordnung. Angeregt von der christlichen Religion und angetrieben vom Gefühl der Eifersucht und des Grolls, so Nietzsche, hätten die Schwachen und Missratenen den Sklavenaufstand der Moral gegen die Starken und Schönen in Gang gesetzt. Eingeschüchtert durch die moralische Waffe der Schuld verschließen die Besten

und Edelmütigsten der Menschheit unbewusst die Augen vor ihrer eigenen Unterdrückung und Versklavung, blind gegen ihr wahres und natürliches Ziel – den ihnen eigenen Willen zur Macht.



Die gestrenge Ordnung der Natur schreibt gegenseitige Hilfe mindestens ebenso häufig vor wie kriegerische Handlungen. Die Stärksten können auch die Edelsten sein. Theodosius Dobzhansky, 1962



Altruismus Egoistische Motive Das Rätsel um die Frage, wie die Evolution altruistische Verhaltensweisen hervorbringen kann, erhellt sich, wenn wir erkennen, dass es nicht notwendigerweise die „Nachkommen der wohlwollenden Eltern“ sein müssen, die altruistische Verhaltenstendenzen in die nächste Generation tragen: Es genügt, wenn enge Verwandte dies tun. Mit anderen Worten: Es kommt nicht auf das Überleben eines altruistischen Einzeltieres an, denn das genetische Erbmaterial, das zu seiner selbstlosen Veranlagung beiträgt, ist ja auch in engen Verwandten des Tieres vorhanden, und so überleben indirekt auch die eigenen Gene. Sollte die natürliche Selektion in dieser Weise durch die soDie Schwachen und genannte „Verwandtenselektion“ verfahren, dürften wir erwarMissrathnen sollen zu ten, dass altruistische Einzeltiere enge Verwandte als NutznieGrunde gehen: erster ßer ihres altruistischen Verhaltens bevorzugen. Und dies ist Satz unserer Menschendurch die Forschung mittlerweile auch belegt. Niemand, der an die Darwin’sche Evolutionslehre glaubt liebe. (und dazu gehören praktisch sämtliche Biologen dieser Welt), Friedrich Nietzsche, 1888 wird leugnen, dass der Mensch das Ergebnis evolutionärer Prozesse ist. Insofern bieten Mechanismen wie die Verwandtenselektion auch Erklärungen für die Herausbildung altruistischer Verhaltensweisen beim Menschen. Das Problem dabei ist aber, dass ein biologischer Altruismus dieser Art überhaupt nichts mit dem „reinen“ oder „echten“ Altruismus zu tun hat: Er dient als Erklärung für eine Verhaltensweise, die zunächst Anderen zugutekommt, letztlich aber den eigenen egoistischen Interessen oder zumindest dem eigenen genetischen Interesse folgt. Und wenn dies die einzige Erklärung für altruistisches Verhalten ist, dann liegt es auf der Hand, dass es in der Darwin’schen Welt keinen „echten“ Altruismus geben kann, denn der zeichnet sich dadurch aus, dass er Anderen zugutekommt, und zwar ungeachtet aller eigenen Interessen. Tief verwurzelte Intuitionen aber, oder Geschichten wie die vom freiwilligen Feuerwehrmann Welles Crowther, wollen einen solchen Schluss nicht so recht zulassen. Vielmehr möchten wir übereinstimmend mit David Hume dagegenreden: „(Es scheint klar), dass die Stimme der Natur und die Erfahrung der egoistischen Theorie widersprechen“ – einer Idee, die menschliches Wohlwollen letztlich auf das eigene Interesse reduziert. Weite Bereiche des menschlichen Verhaltens sind rein evolutionsgeschichtlich nur schwer zu erklären, und so zu tun, als wäre dies anders, hieße mithin, die vieldeutige Rolle kultureller und anderer Einflussfaktoren auszuklammern. Doch diese biologische Lehrstunde hinterlässt bei uns möglicherweise ein unangenehmes Gefühl dafür, in welchem Ausmaß Eigeninteresse und Egoismus einem Verhalten zugrundeliegen, das wir für gewöhnlich als wohlwollend und altruistisch ansehen.





Worum geht Selbstlos oderes egoistisch?

19

20

Philosophie

05 Freiheit „Ist das Leben so kostbar oder der Frieden so süß, als dass wir bereit wären, sie mit Ketten und Sklaverei zu bezahlen? Möge der allmächtige Gott dies verhüten! Ich weiß nicht, welchen Weg andere gehen werden, aber was mich betrifft, so gebt mir Freiheit oder gebt mir den Tod!“ Mit diesen berühmten Worten schließt Patrick Henry seine Rede, als er im März 1775 in Virginia dazu aufruft, zu den Waffen zu greifen, um den Kampf um die Unabhängigkeit gegen die Briten zu gewinnen. Kaum einer hat seither ernstlich Einwände erhoben gegen Henrys Vorstellung von Freiheit. Die Präsidenten der USA schon gar nicht: Abraham Lincoln nicht, der auf dem Schlachtfeld in Gettysburg 1863 den Geist einer „neuen Nation, in Freiheit gezeugt“ beschwor; John F. Kennedy nicht, der 1961 gelobte, „dass wir jeden Preis zahlen, jede Last tragen … um die Fortdauer und den Sieg der Freiheit zu sichern“; und auch George W. Bush nicht, der 2001 feierlich verkündete, dass mit dem „Krieg gegen den Terror“ ein „Zeitalter der Freiheit, hier und auf der ganzen Welt, anbrechen würde“. Die Bedeutung und der hohe Wert, welcher der Freiheit beigemessen wird, die das elementarste aller politischen Ideale ist, entspricht vom Ausmaß her den Nöten und Härten, die man erleiden muss, um sie zu erringen: im Kampf gegen religiöse Herrschaftsregime, die all jene töten, die ihre Lehren infrage stellen; gegen absolute Monarchien, die ihren Herrschaftsanspruch auf eine ihnen gegebene göttliche Bestimmung zurückführen; gegen Sklaverei, Vorurteile und Ignoranz; gegen die Unterwerfung der Frauen; gegen die Schikanierung politisch Andersdenkender und vieles mehr. Dass Freiheit eines der elementarsten Menschenrechte ist, daran zweifelt wohl kaum einer. Und viele würden sogar sagen, dass es ein Recht ist, für dass es sich zu kämpfen und notfalls auch zu sterben lohnt. Doch obwohl man sich über die Bedeutung der Freiheit weitgehend einig ist, ist man sich doch überraschend uneins, was das Wesen der Freiheit an sich angeht.

Zwei Konzepte von Freiheit Die einflussreichste Analyse der Freiheit aus der jüngeren Zeit stammt von Isaiah Berlin, dem großen politischen Philosophen des 20. Jahrhunderts. Er wurde vor allem durch seine wichtige Unterscheidung zwi-

Zeitleiste Juli 1776

Juli 1789

August 1789

1859

Unabhängigkeitserklärung der USA

Sturm auf die Bastille

Erklärung der Menschenund Bürgerrechte von Anhängern der französischen Revolution

John Stuart Mill Über die Freiheit

Freiheit schen negativer und positiver Freiheit bekannt, die er in den Mittelpunkt seiner Diskussionen stellt. Oft begreifen wir Freiheit als Abwesenheit äußerlicher Einschränkungen oder Zwänge: Du bist frei, solange dich nichts hindert zu tun, was du tun willst. Berlin bezeichnet dies als „negative Freiheit“. Niemand jedoch kann uneingeschränkte Freiheit in diesem Sinne genießen, ohne in die Freiheit Anderer einzugreifen. Das gesellschaftliche Zusammenleben braucht also ein gewisses Maß an Kompromiss, damit aus Freiheit keine Narrenfreiheit wird. Der Kompromiss, den die klassischen Liberalen generell verlangen, definiert sich über das sogenannte „Schadensprinzip“. Aufgestellt hat dieses Prinzip John Stuart Mill, einer der einflussreichsten liberalen Denker im Viktorianischen England. Es legt fest, dass es jedem Einzelnen erlaubt sein solle, in jeglicher Weise zu handeln, die Anderen keinen Schaden zufügt. Nur dort, wo Schaden verurFreiheit, das bedeutet sacht wird, hat die Gesellschaft das Recht einzugreifen und Schranken zu setzen. Auf etwa die gleiche Art lässt sich ein Be- in meinem Badezimmer reich von privater Freiheit definieren, der unantastbar ist und ge- so laut singen zu könschützt gegen äußere Einmischungen oder Autoritäten. nen, wie ich will, solange Aber mal angenommen, eine Person ist frei in diesem negati- es nicht die Freiheit ven Sinne, verfügt aber nicht über die Mittel (Geld, Bildung, someines Nachbarn beeinzialer Status), diese Freiheit auch nutzen zu können. Ist diese trächtigt, in seinem BadePerson dann wirklich frei im vollen Wortsinne? Um diese rein zimmer eine andere formale Freiheit in eine reale, substanzielle Freiheit zu verwandeln, mögen wir Formen der (staatlichen) Einmischung befürMelodie zu singen. worten, die wohl eher Berlins positivem Konzept von Freiheit Tom Stoppard, 2002 zuzuordnen sind. Während negative Freiheit die Freiheit von äußerer Einmischung ist, wird positive Freiheit zumeist als die Freiheit charakterisiert, bestimmte Ziele zu realisieren; als eine Art Handlungsermächtigung, die es einer Person erlaubt, all ihre Möglichkeiten auszuschöpfen, sich selbst zu verwirklichen, zu Eigenverantwortung und Selbstbestimmtheit zu gelangen. Während die negative Freiheit im Kern interpersonal ist, also eine Beziehung zwischen den Menschen besteht, ist die positive Freiheit intrapersonal, das heißt sie entwickelt sich innerhalb des Einzelnen. Das positive Konzept von Freiheit setzt eine Teilung des Selbst in höhere und niedere Sphären voraus. Die Erlangung der Freiheit zeichnet sich aus durch den Triumph des (moralisch und rational) vorzuziehenden höheren Selbst. Es liegt wohl teilweise am Konzept des geteilten Selbst, das für Berlins Empfinden implizit in der positiven Freiheit enthalten ist, dass er ihr so skeptisch gegenüberstand. Vertritt eine herrschende Macht erst einmal die paterna-





November 1863

Oktober 1958

Januar 1961

September 2001

Abraham Lincoln hält seine berühmte Rede, die Gettysburg Address

Isaiah Berlin stellt in einer Vorlesung seine „Zwei Konzepte der Freiheit“ vor

John F. Kennedy hält seine Antrittsrede

„Krieg gegen den Terror“ – Rede von Präsident George W. Bush vor dem amerikanischen Kongress

21

22

Philosophie listische Ansicht, dass Menschen eine „bessere Seite“ haben, die es zu fördern gilt (sowie eine schlechtere, die es zu unterdrücken gilt), dann ist es nur noch ein kleiner Schritt, sich das Recht anzumaßen, „die eigentlichen Wünsche der Menschen oder Gesellschaften zu ignorieren, sie zu tyrannisieren, zu unterdrücken oder zu foltern im Namen und im Interesse des ‚realen‘ Selbst [der Menschen]“. Unter dem Banner der (positiven) Freiheit marschierend, kehrt sich die Regierung der Tyrannei zu, setzt für die Gesellschaft ein bestimmtes Ziel, bevorzugt eine bestimmte Lebensweise für ihre Bürger. Berlins eigenes tiefes Wer jemals die Freiheit Misstrauen gegenüber der positiven Freiheit wurde geschürt von um ihrer selbst willen den ungeheuerlichen Taten des 20. Jahrhunderts (vor allem vom schätzte, erkannte einen totalitären Schreckensregime Stalins in der Sowjetunion). Doch es gibt auch andere mit wohlwollenderen Ansichten, die in der unveräußerlichen We- positiven Freiheit das Potenzial für persönliche Veränderung senszug des Menschen und Selbstverwirklichung erkennen.



darin, frei entscheiden zu können statt bevormundet zu werden. Isaiah Berlin, 1988

Die schwierige Verteidigung der Freiheit Am 28. Oktober 1886 wurde eines der berühmtesten ikonischen Werke der Welt, die Freiheitsstatue (die offiziell den Namen Liberty Enlightening the World trägt), im Hafen von New York feierlich eingeweiht. Das Geschenk des französischen Volkes an die Vereinigten Staaten war ausgesprochen passend, waren die beiden Länder doch lange Zeit verbunden durch eine gemeinsame Vorstellung von Freiheit, die ihre jeweils folgenreiche Revolution im letzten Viertel des 18. Jahrhunderts unterstützt hatte. Die Unabhängigkeitserklärung der Vereinigten Staaten von 1776, begründet durch die naturrechtliche Staatstheorie von John Locke und anderen, postuliert die „selbstverständliche“ Wahrheit, „... daß alle Menschen ... von ihrem Schöpfer mit gewissen unveräußerlichen Rechten begabt worden, worunter sind Leben, Freyheit und das Bestreben nach Glückseligkeit“. Nur dreizehn Jahre später inspirierte dieses Dokument nebst der Aufklärungstheorie, die ihm zugrunde liegt, Frankreich zu seiner Erklärung der Menschen- und Bürgerrechte, die von Anhängern der französischen Revolution ausgegeben wurde. Seitdem ist Freiheit, zusammen mit Gerechtigkeit und Demokratie, der oberste und unbestrittene Maßstab, an dem die sogenannten „freien Demokratien“ der westlichen Welt gemessen werden. Aber es ist schon ein wenig sonderbar, dass die USA und Frankreich als historische Vorreiter und Vorbilder für freiheitliche politische Systeme auf den Sockel gehoben werden. Der Gegenpol zur Freiheit nämlich, die Sklaverei, blieb in den USA noch fast ein Jahrhundert nach der Erlangung der Unabhängigkeit legal. Und auch die drei Säulen der Französischen Revolution – Freiheit, Gleichheit, Brüderlichkeit – wurden im revolutionären Frankreich nie vollständig oder dauerhaft umgesetzt. Die „schöne und gesegnete Freiheit“, die eine Pariser Zeitung beim Sturm auf die Bastille 1789 ausgerufen hatte, hatte sich innerhalb von nur vier Jahren in eine Schreckensherrschaft unter Robespierre verwandelt, der



Freiheit

Geistige Freiheit In seinem Werk Über die Freiheit (1859) warnt John Stuart Mill in einer leidenschaftlichen Verteidigung der Rede- und Meinungsfreiheit vor den Gefahren einer Kultur der Vorurteile und geistigen Unterdrückung, in der das kritische Hinterfragen allgemein anerkannter Meinungen niedergedrückt und „die aktivsten und neugierigsten Geister“ Angst haben müssen, sich dem „freien und gewagten Nachdenken über bedeutendste Gegenstände“ hinzugeben.

In einem ähnlichen Sinne hat Immanuel Kant zuvor schon reklamiert, dass der Geist Freiheit brauche (eine Freiheit, die er leider vermisse), um zu seiner vollen Reife zu gelangen: „Zu dieser Aufklärung aber wird nichts erfordert als Freiheit; und zwar die unschädlichste unter allem, was nur Freiheit heißen mag, nämlich die: von seiner Vernunft in allen Stücken öffentlichen Gebrauch zu machen.“

sämtliche politischen Gegner vernichten und 17 000 mutmaßliche Konterrevolutionäre durch die Guillotine köpfen ließ. Diese totale Missachtung der bürgerlichen Freiheiten auf dem Höhepunkt der Schreckensherrschaft 1793-94 entschuldigten die französischen Revolutionäre mit der Bedrohung durch Konterrevolutionäre im eigenen Land und fremder Armeen außerhalb des Landes. Und auch nachfolgende freiheitliche Demokratien, die das französische Vorbild eher kopiert denn verbessert haben, reagierten auf kriegerische Notsituationen oder terroristische BedrohunOh Freiheit, welche gen meist, indem sie altbewährte Gesetze niedertrampelten und Verbrechen begeht man an ihrer Stelle repressive Gesetze erließen. Im September 2001, in deinem Namen! als Folge der Anschläge vom 11. September, kündigte der ameMadame Roland (vor ihrer rikanische Präsident George W. Bush den Beginn eines „Kriegs gegen den Terror“ an und erklärte: „Dies ist der Kampf der geHinrichtung durch die Guillotine), samten Zivilisation. Es ist der Kampf aller, die an Fortschritt 1793 und Pluralismus, Toleranz und Freiheit glauben.“ Doch in den Jahren danach gehörten zu den Opfern dieses Krieges auch bürgerliche Freiheiten und Menschenrechte. Die Misshandlungen und Folterungen von Gefangenen durch US-Militärs in Abu Ghraib im Irak sowie die Inhaftierung von sogenannten „feindlichen Kämpfern“ im Camp X-Ray in der Guantanamo-Bucht auf Kuba sind neueste Beispiele für den vielbemühten Satz, dass die Unfreiheit die beste Verteidigung der Freiheit ist.





eszugeht Etwas, fürWorum das es sich sterben lohnt?

23

24

Philosophie

06 Toleranz „Wir sollten uns alle wechselseitig dulden, weil wir alle schwach, inkonsequent, der Veränderung, dem Irrtum unterworfen sind. Wird ein vom Wind zum Schlamm hin gebogenes Schilfrohr einem Schilfrohr-Nachbarn, das in die Gegenrichtung gebogen wird, sagen: ‚Beuge dich auf meine Weise, oder ich erstatte Anklage, dass man dich ausreißt oder dich verbrennt’?“ So beendet Voltaire den Artikel über Toleranz in seinem Philosophischen Wörterbuch von 1764. Mit seinem Appell an die Grundsätze der Freiheit des Einzelnen und der Freiheit der Gedanken macht der französische Philosoph eine klassische Aussage zu einer Tugend, die für die Epoche der Aufklärung so überaus bezeichnend ist. „Denkt selbst nach und lasst auch andere das Privileg es ebenfalls zu tun genießen“, heißt es kurz und knapp an anderer Stelle. Die Tugend der Toleranz, das Geltenlassen fremder Überzeugungen, ist im liberalen Denken so tief verwurzelt, dass wir ihre Bedeutung als selbstverständlich annehmen, in Bezug auf das Verhältnis zwischen geordneten Staaten ebenso wie in Bezug auf die Beziehungen zwischen vernunftbegabten Individuen. Eine derart vorgefertigte Annahme aber sollte uns nicht blind machen dafür, dass es in der realen Welt um diese Tugend eher schlecht bestellt ist. Angehörige der großen Religionen, ob Muslime, Christen, Hindus oder Juden, bekämpfen sich in vielen Ländern gegenseitig, sind kaum bereit, ihre Widersacher oder deren religiöse Überzeugungen zu tolerieren. Die Lage ist nicht viel besser, wenn es um Unterschiede geht, die nicht religiös bedingt sind, wenn Menschen beispielsweise nach ihrer Hautfarbe, ihrer ethnischen Herkunft, ihren sexuellen VorIch missbillige, was lieben oder Lebensformen unterteilt werden. Doch wer Intoledu sagst, aber bis in ranz und blinden Fanatismus ausübt – und das ist für all diese den Tod werde ich dein Beispiele ausnahmslos der Fall –, wird sich selbst weder als inRecht verteidigen es zu tolerant noch als fanatisch begreifen. Der Begriff der Toleranz lässt sich historisch wie auch inhaltlich nur sehr schwer fassen, sagen. sodass einige in Zweifel ziehen, ob dieser zentrale Gedanke der Voltaire Aufklärung überhaupt als „aufgeklärte“ hohe Tugend gelten (nach Evelyn Beatrice Hall), 1906 kann.





Zeitleiste 1689

1764

Lockes Brief über die Toleranz plädiert für die Trennung von Kirche und Staat

Das Philosophische Wörterbuch von Voltaire liefert eine für die Epoche der Aufklärung klassische Aussage über Toleranz

Toleranz Das Paradox der Toleranz In seinem Kern liegt dem Begriff der Toleranz ein störendes Paradox zugrunde. Und das genau ist das Problem. Allgemein formuliert, ist Toleranz die Bereitschaft, Dinge (oder Menschen), denen man ablehnend gegenübersteht, gelten oder gewähren zu lassen, ohne dazwischenzutreten, auch wenn man dies tun könnte. Die Bandbreite der darin enthaltenen Ablehnung kann weit gefächert sein und von leichtem Widerwillen bis zu starker Abscheu reichen, wobei der Grad der Toleranz proportional zum Grad der Ablehnung ausfällt. Anders gesagt, es braucht ein hohes Maß an Toleranz, um Dinge zuzulassen, die den eigenen Anschauungen extrem zuwider laufen. Wenn Toleranz als Tugend (als die sie üblicherweise gilt) nun aber verlangt, auch Dinge zu tolerieren, die als falsch oder gar moralisch schlecht gelten, ergibt sich ein Paradox. Nach dieser Lesart nämlich wäre es durchaus tugendhaft Die menschliche Viel– sprich moralisch gut –, etwas moralisch Schlechtes geschehen falt macht Toleranz zu zu lassen; und das wiederum hieße, dass wir umso tugendhafter mehr als einer Tugend, dabei sind, es hinzunehmen, je schlechter es ist. Wie aber kann sie macht sie zu einer es moralisch gut sein, schlechte Dinge geschehen zu lassen? Müsste man nicht vielmehr alles tun, um zu verhindern, dass sie Voraussetzung für das Überleben. geschehen (was per definitionem machbar wäre)? Ein Weg, dieses Paradox aufzulösen, liegt klar auf der Hand. René Dubos, 1981 Es muss Gründe für die Toleranz geben, die stark genug sind, jene aufzuwiegen, die ein Eingreifen verlangen; die zeigen, dass es tatsächlich falsch wäre, das, was falsch ist, nicht zu tolerieren. John Stuart Mill, einer der wohl einflussreichsten Vertreter des klassischen Liberalismus, sieht sehr wohl Gründe für die Toleranz, die Gründe für ein Eingreifen „übertrumpfen“. Er nennt zum einen die menschliche Verschiedenheit, die in sich selbst wertvoll ist, zum anderen die Achtung der menschlichen Eigenständigkeit, die es jedem Einzelnen ermöglicht, eigene Entscheidungen zu treffen. In seinem Werk Über die Freiheit (1859) argumentiert er, dass eines Menschen





(…) eigene Art zu leben die beste [ist], nicht weil sie die beste an sich ist, sondern weil sie sein eigener Stil ist. Menschliche Wesen sind keine Schafe, und selbst diese gleichen aneinander nicht ununterscheidbar. Ein Mann kann nicht einen Rock oder ein Paar Schuhe erhalten, die ihm passen, ohne dass man dazu Maß nimmt oder dass er sie aus einem ganzen Lager heraussucht – und ist es etwa leichter, ein passendes Leben für ihn zu finden als einen Rock?

1859

1995

Über die Freiheit von J. S. Mill plädiert für Toleranz im Lichte der menschlichen Autonomie

UNESCO Die Erklärung von Prinzipien der Toleranz

25

26

Philosophie Religiöse Toleranz In modernen liberalen, pluralistischen Gesellschaften ist der Wert der Toleranz verankert in der Achtung vor der Autonomie anderer und dem Recht des Einzelnen auf eigene Willens- und Meinungsbildung. Natürlich gibt es Grenzen der Toleranz, aber im Allgemeinen steht es einem Menschen frei zu tun und zu denken, was er möchte, solange seine Handlungen und Überzeugungen einem Anderen nicht zum Schaden gereichen. Leid und Schaden aber entstehen normalerweise dann, wenn die Autonomie eines anderen verletzt wird. Toleranz lässt sich also nicht unbegrenzt ausdehnen auf Diebstahl oder Mord oder auf die vielen weniger offenkundigen Verletzungen der Rechte Anderer. Leid und Schaden aber können viele Formen annehmen. Und welches Leid kann in den Augen eines (sagen wir mal) strenggläubigen Christen größer sein, als die Verdammnis der Seele und

Harmonie über Unterschiede hinweg Geboren aus jahrhundertelangen religiösen Spaltungen und Konflikten und getauft mit Unmengen vergossenen Blutes, ist die Idee der Toleranz heute eine der tragenden Säulen der liberalen Theorie. 1995 verabschiedete die UNESCO Die Erklärung von Prinzipien der Toleranz und erhob so diese umstrittene Gesinnung in den Rang eines Leitprinzips für den Aufbau von Frieden und Harmonie weltweit: Toleranz bedeutet Respekt, Akzeptanz und Anerkennung der Kulturen unserer Welt, unserer Ausdrucksformen und Gestaltungsweisen unseres Menschseins in all ihrem Reichtum und ihrer Vielfalt. Gefördert wird sie durch Wissen, Offenheit, Kommunikation und durch Freiheit des Denkens, der Gewissensentscheidung und des Glaubens. Toleranz ist Harmonie über Unterschiede hinweg (…) eine Tugend, die den Frieden ermöglicht, und dazu bei(trägt), den Kult des Krieges durch eine Kultur des Friedens zu überwinden. Toleranz ist der Schlußstein, der die Menschenrechte, den Pluralismus (auch den kulturellen Pluralismus), die Demokratie und

den Rechtsstaat zusammenhält. Sie schließt die Zurückweisung jeglichen Dogmatismus und Absolutismus ein (…) (…) bedeutet praktizierte Toleranz (…) für jeden einzelnen Freiheit der Wahl seiner Überzeugungen, aber gleichzeitig auch Anerkennung der gleichen Wahlfreiheit für die anderen. Toleranz bedeutet die Anerkennung der Tatsache, daß alle Menschen, natürlich mit allen Unterschieden ihrer Erscheinungsform, Situation, Sprache, Verhaltensweisen und Werte, das Recht haben, in Frieden zu leben und so zu bleiben, wie sie sind. (…) In der heutigen Welt ist Toleranz wichtiger als jemals zuvor. Diese Epoche ist gekennzeichnet durch Globalisierung der Wirtschaft und durch schnell zunehmende Mobilität, Kommunikation, Integration und Interdependenz, gewaltige Wanderungsbewegungen und Vertreibung ganzer Bevölkerungen, Verstädterung und Wandel sozialer Muster. Da jeder Teil der Welt das Merkmal der Vielfalt trägt, bedrohen zunehmende Intoleranz und Zwietracht potentiell jede Region (…)

Toleranz die Verwirkung des ewigen Lebens? Ein Appell an die Autonomie, an das Recht des Einzelnen, sein eigenes Schicksal selbst zu gestalten, findet sich weder im hiesigen noch im jenseitigen Leben – wenn das infrage kommende Schicksal die ewige Verdammnis ist. Qual und Verfolgung (im christlichen Glaubenskampf) zu erleiden, sind so gesehen ein kleiner Preis für eine Ewigkeit im Paradies. Der Gedanke, Toleranz auch auf Fragen der Religion auszudehnen, wäre den meisten Menschen im Europa des 17. Jahrhunderts befremdlich, wenn nicht gar „intolerabel“ erschienen. Ganz gemäß dem eigenen Anspruch, die einzig wahre Religion zu sein, war das Christentum ihrer Natur nach intolerant gegenüber anderen Religionen und ebenso unwillig, Abspaltungen und Ketzereien innerhalb der eigenen Reihen hinzunehmen. Tatsächlich aber wurDie Macht der Obrigkeit de die Diskussion um die Toleranz bis zum 17. Jahrhundert und auch darüber hinaus weitgehend angetrieben von religiösen Fra- erstreckt sich nicht auf gen und auch auf eben jene beschränkt. Die grausamen Glaudie Festsetzung irgendbenskriege, in denen Protestanten und Katholiken in blindem welcher Glaubensartikel Blutseifer Europa auseinanderrissen, waren hauptsächlich ange- oder gottesdienstlicher trieben von der religiös inspirierten Intoleranz all derer, die es als ihr Recht und ihre Pflicht ansahen, den religiösen Dissens zu Formen durch den Zwang ihrer Gesetze. zerschlagen und die eigene Rechtgläubigkeit herbeizuzwingen. Im verzweifelten Kampf, den scheinbar endlosen Konflikt zu John Locke, 1689 beenden, begannen sich etliche Denker der nachreformatorischen Zeit zu fragen, ob menschliches Wissen überhaupt den göttlichen Willen mit ausreichender Sicherheit begreifen könne, um Qual und Verfolgung zu rechtfertigen. Und andere stellten den Einsatz von Zwang infrage, um die geistigen Überzeugungen eines Menschen zu ändern (zumindest dergestalt, dass sie gottgefällig seien). Ein eher pragmatischer Argumentationsgang weist auf allseitige, durch Intoleranz bedingte Konflikte hin und mahnt Toleranz als eine Sache der politischen Zweckdienlichkeit an. Eigentlich aber war von vornherein klar, dass eine derart sachliche Argumentation bei all jenen ins Leere läuft, für die religiöse Prinzipien eine Grundhaltung sind. Einer der bekanntesten Beiträge zur Diskussion um religiöse Toleranz stammt von John Locke. Sein Brief über die Toleranz (1689) trug mehr als irgendein anderes Werk dazu bei, die moderne liberale Toleranzidee zu formen. Locke plädiert dafür, dass eine von Gott geforderte freiwillige Überzeugung jedweder Art nicht durch Zwang auferlegt werden könne. Seine Hauptforderung allerdings ist die strikte Trennung von Kirche und Staat. Der Staat und seine Obrigkeit haben sich, so Locke, um bürgerliche Angelegenheiten zu kümmern, nicht um das „Heil der Seelen“. Also sei es absolut unrecht, wen auch immer für eine religiöse Meinung oder Handlung in weltlicher Hinsicht zu bestrafen.





Worum geht Tugend Eine schwierige undes paradoxe

27

28

Philosophie

07 Skeptizismus Beim derzeitigen Tempo des Fortschritts ist es wahrscheinlich nur eine Frage der Zeit, bis unsere zivilisierte Welt eine derart hoch entwickelte technische Reife erlangt, dass wir mithilfe von Computern simulierte menschliche Wesen erschaffen können sowie Welten, die von diesen Wesen bewohnt werden. Um derlei simulierte Welten zu erhalten, bedarf es relativ geringer Mittel. Ein einziger Laptop der Zukunft könnte Millionen von simulierten Wesen beheimaten, und damit wäre vorprogrammiert, dass die simulierten Wesen den natürlichen Personen zahlenmäßig bei Weitem überlegen wären. Die Qualität der Simulation ist so hoch, dass die Erfahrungen der natürlichen und der simulierten Wesen nicht unterscheidbar wären. Die einen wie die anderen denken, sie seien real und nicht simuliert, wobei Letztere sich natürlich irren. Wir aber wissen natürlich, dass wir keine computersimulierten Wesen in einer simulierten Welt sind … Oder etwa nicht? Denken würden wir das freilich, aber woher wollen wir es wissen? Und wer sagt, dass wir die computertechnische Kompetenz nicht längst erlangt und derlei Wesen bereits simuliert haben? Folgen wir der oben skizzierten Logik, so ist es in der Tat sehr viel wahrscheinlicher als nicht, dass wir längst in einer solchen simulierten Welt leben.

Von Tanks und virtuellen Welten Schweres Gedankenfutter, das nach einem Rezept von 2003 des schwedischen Philosophen Nick Bostrom zubereitet ist. Bostroms Simulationsargument (hier vereinfacht) ist nicht das erste Argument, das die Möglichkeit erwägt, dass das, was wir über uns und unsere Welt zu wissen glauben, ein gewaltiger Irrtum ist. 1981 ersinnt der amerikanische Philosoph Hilary Putnam die berühmte Geschichte von einem bösen Wissenschaftler, der einem Menschen das Gehirn herausoperiert, es in einen Tank mit Nährlösung legt und die Nervenenden mit einem Super-Computer verbindet, wodurch dieser Mensch – oder das körperlose Gehirn? – die Illusion hat, alles sei weiterhin völlig normal. Ein AlptraumSzenario? Stoff für Science-Fiction-Geschichten? Vielleicht. Aber genau so käme es Ihnen vor, wenn Sie die Person mit dem körperlosen Gehirn in einem Tank wären.

Zeitleiste 5. Jh. v. Chr.

ca.

Die dialektische Methode des Sokrates untergräbt die dogmatischen Positionen der Gegner

Pyrrhon von Elis empfiehlt Gemütsruhe durch das Aufgeben von Überzeugungen

3. Jh. v. Chr.

1637 Descartes wendet den Skeptizismus gegen die Skeptiker

Skeptizismus

29

Das Problem dabei ist: Sollten Sie zufällig doch ein Gehirn in einem Tank sein (und diese Möglichkeit lässt sich nun mal nicht ausschließen), dann würden sich all die Dinge, die Sie von der Welt zu glauben wissen, als falsch erweisen. Und wenn das möglich ist, dann wissen Sie im Grunde genommen gar nichts. Stimmt’s? Szenarien dieser Art, wie sie Putnam und Bostram erwogen haben, waren seit eh und je schlagkräftige Waffen im philosophischen Arsenal der Skeptiker. Als eine philosophische Denkhaltung zeichnet sich der Skeptizismus dadurch aus, dass er jeglichen Anspruch auf Wissen und Erkenntnis über die Wirklichkeit infrage stellt. Wir meinen, viele Dinge zu wissen. Aber wie wollen wir diesen Anspruch verteidigen? Welche Gründe können wir vorlegen, um diesen oder jenen Anspruch auf eine Erkenntnis zu rechtfertigen? Unser vermeintliches Wissen von der Welt basiert auf Wahrnehmungen, die wir über unsere Sinne erlangen. Aber sind diese Wahrnehmungen nicht immer fehleranfällig? Können wir je sicher sein, dass wir nicht halluzinieren, oder träumen, oder dass unsere Erinnerung uns nicht Streiche spielt? Wenn Traumerfahrungen nicht unterscheidbar Sie [die skeptische von Erfahrungen im Wachzustand sind, dann können wir nie gePhilosophie] unterdrückt wiss sein, dass etwas, von dem wir denken, es wäre real, auch tatsächlich real ist – dass das, was wir für wahr halten, auch tat- jede Leidenschaft, mit sächlich wahr ist. Es besteht, so scheint es, immer die Möglich- Ausnahme der Liebe zur keit, dass wir Gehirne sind, die in Tanks schwimmen, oder virWahrheit, und diese Leituelle Avatare in einer computersimulierten Wirklichkeit. denschaft ist und kann



Die griechischen Skeptiker Seit seinen Ursprüngen im al- nie auf einen zu hohen Grad getrieben werden. ten Griechenland hat sich der Skeptizismus typischerweise als eine Strategie gegen jegliche Formen des Dogmatismus entwiDavid Hume, 1748 ckelt, die für sich in Anspruch nehmen, auf einem bestimmten Gebiet oder allgemein, endgültig richtige Aussagen über die Wirklichkeiten in der diesseitigen und/oder in der jenseitigen Welt getroffen zu haben. Diese zweiflerische Denkhaltung in der antiken griechischen Philosophie nimmt vorweg, was 2000 Jahre später neu erstehen sollte, und war vorwiegend motiviert durch die scheinbar unüberbrückbare Kluft zwischen Schein und Wirklichkeit – durch die Tatsache, dass unsere Mittel, uns mit der Welt auseinanderzusetzen, uns immer ein Stück von der Wahrheit fernhalten und es theoretisch immer möglich ist, Gegenbeispiele gegen jeglichen Anspruch auf endgültiges Wissen anzuführen. Auch wenn er bei Weitem kein Skeptiker war, gebraucht Platons Sokrates eine prüfende dialektische Methode, die tauglich scheint, jeden dogmatischen Anspruch seiner Zeitgenossen zu untergraben. Das skeptische Denken, das man aus seiner Behauptung, Weisheit liege im Bewusstsein der eigenen Unwissenheit, folgern konnte,



1748

1981

2003

Hume sagt, dass der „natürliche Instinkt“ uns vor skeptischer Verzweiflung bewahrt

Hilary Putnam zeichnet das „Gehirn im Tank“-Szenario

Das Simulationsargument legt dar, dass wir möglicherweise in einer virtuellen Welt leben

30

Philosophie beeindruckte seine philosophischen Nachfolger zutiefst. Der einflussreichste Skeptiker, der uns nur durch die Schriften anderer bekannt ist, war Pyrrhon von Elis, der um 300 v. Chr. gewirkt hat. Seine Antwort auf die grundsätzlich provisorische Natur von Wahrheitsansprüchen – auf die Tatsache, dass Wissensfragen nie letztgültig entschieden werden könnten – bestand in dem Rat, Überzeugungen aufzuheben, wodurch eine Gemütsruhe entstünde, die fest und sicher sei gegen alle Enttäuschung, die sich unweigerlich aus der immer wieder scheiternden Suche nach Gewissheit ergebe.

Vom Zweifel zur Gewissheit? Der Skeptizismus kam erneut im 15. und 16. Jahrhundert zum Vorschein, als die ersten Anzeichen der wissenschaftlichen Revolution viele dazu veranlassten, die einwandfreie Grundlage von Wissen sowie die Gültigkeit theologischer Wahrheit in Frage zu stellen. Die historische Ironie dabei ist, dass es dem Mann, der einst angetreten war, den skeptischen Zweifel ein für allemal zu verbannen, lediglich geglückt war, ihn in das Zentrum der philosophischen Bühne zu rücken und sicherzustellen, dass seine Besiegung eine der Hauptaufgaben der nachfolgenden Philosophie bleiben würde. In der wissenschaftlichen Revolution, die Europa im 17. Jahrhundert erfasste, war der Franzose René Descartes ganz vorne mit dabei. Es war sein ehrgeiziges Vorhaben, die drögen Dogmen der mittelalterlichen Welt über Bord zu werfen und die Wissenschaft auf einem unerschütterbaren Fundament neu zu errichten. Zu diesem Zweck führte er die strikte „Methode des Zweifels“ ein. Um seine eigene Metapher zu gebrauchen: Er gab sich nicht damit zufrieden, die faulen Äpfel – die falschen Annahmen – auszusortieren; nein, er leerte gleich den ganzen Korb aus und damit auch jede Annahme, die auch nur den geringsten Zweifel offen ließ. Denn es könnte sein, dass ein böser Dämon nur darauf lauert, uns zu täuschen, sodass selbst die als selbstverständlich angenommenen Wahrheiten der Geometrie und Mathematik nicht länger gewiss sind. Bar jeglicher Überzeugung, die nicht denkbar in Zweifel gezogen werden könnte, hilflos umher treibend in einem Meer der scheinbar unergründlichen Ungewissheit, sucht Descartes verzweifelt nach sicherem Halt – nach irgendeinem unerschütterlichen Grund, auf dem er das Gebäude der menschlichen Erkenntnis neu errichten kann: Alsbald aber machte ich die Beobachtung, dass, während ich so denken wollte, alles sei falsch, doch notwendig ich, der das dachte, irgend etwas sein müsse, und da ich bemerkte, dass diese Wahrheit »ich denke, also bin ich« (cogito ergo sum) so fest und sicher wäre, dass auch die überspanntesten Annahmen der Skeptiker sie nicht zu erschüttern vermöchten, so konnte ich sie meinem Dafürhalten nach als das erste Prinzip der Philosophie, die ich suchte, annehmen.

Nachdem Descartes bis auf den tiefsten Grund geschürft hatte, erwies sich die Neukonstruktion unseres Wissens aus den Descart’schen Bauteilen als erstaunlich einfach. Gegründet auf den Glauben an einen Gott, der uns nicht täuscht und nicht

Skeptizismus

Humes gemäßigter Skeptizismus Die scharfen skeptischen Attacken auf Descartes’ Vorhaben, die Wissenschaft auf einem unerschütterbaren Fundament neu zu errichten, schwächten sich im folgenden Jahrhundert schließlich ab und wurden zu einem konstruktiven, ‚gemäßigten‘ Skeptizismus, was vor allem auf den Schotten David Hume, einen naturalistischen Philosophen, zurückzuführen ist. Hume sah keine Mittel und Wege, den Schlüssen des voll entfalteten Skeptizismus (oder Pyrrhonismus, wie er diesen bezeichnet) zu entkommen und stellt die berühmte These auf, wonach unsere Überzeugungen über die Welt sich weder durch induktive Begründungen noch durch kausale Notwendigkeiten stützen lassen; die wahrgenommenen Muster

und Gleichheiten in der Natur seien aus seiner Sicht bloß eine Sache der Gewohnheit. Unsere menschliche Natur, so meint er, bewahrt uns jedoch vor dem völligen Zweifel und führt uns zurück zu den Vorstellungen des gesunden Menschenverstands, ganz egal wie unbegründet: „Die Philosophie würde uns zu völligen Pyrrhoneern machen, wäre nicht die Natur dafür zu stark.“ In der Folge entstand ein neuer wissenschaftlicher Ansatz, um Wissen zu erlangen, der empirisch und pragmatisch vorging; und es entstand eine denkerische Bescheidenheit, die geprägt war durch die Einsicht, dass menschliche Erkenntnisfähigkeiten und die Leistungen der Vernunft sehr stark begrenzt sind.

trügt, und der die Wahrhaftigkeit unserer Sinne garantiert, weicht das Meer der Zweifel rasch zurück. Die Welt ist damit wieder hergestellt und die Neukonstruktion unseres Wissens kann auf einer festen, wissenschaftlichen Grundlage beginnen. „Cogito ergo sum“ – die Stärke dieses berühmten Argumentes von Descartes wurde seither stetig diskutiert. Doch mit seinem Versuch, aus der skeptischen Grube zu klettern, die er sich selbst gegraben hatte, hat Descartes kaum einen seiner Kritiker überzeugt, damals nicht und heute nicht. Er hat das Gespenst des Skeptizismus heraufbeschworen, um es zu vertreiben, offenbar aber versagt, es zum Verstummen zu bringen, womit er auch spätere Philosophen in dessen Bann ließ.

Worum esDogmas geht Die Geißel des

31

32

Philosophie

08 Vernunft „Die Götter pflanzten die Vernunft dem Menschen ein als höchstes aller Güter.“ In diesem Ausspruch des griechischen Tragödiendichters Sophokles aus dem 5. Jahrhundert v. Chr. hallt eine uralte Weltsicht wider, welche der Vernunft einen zentralen Platz im Selbstverständnis des Menschen und seiner Stellung in der Welt einräumt. Seine griechischen Landsmänner stimmen mit ihm im Allgemeinen überein. Pythagoras, eine schattenhafte Gestalt im 6. Jahrhundert v. Chr., ist von Zahlen und ihren Beziehungen zueinander vollkommen fasziniert und einer der ersten bekannten Denker, der die Kräfte der menschlichen Vernunft hoch schätzt. Und auch für Platon ist die Ausübung der Kräfte der Vernunft das höchste menschliche Gut, ebenso wie für seinen Schüler Aristoteles, der die Vernunft als das sieht, was das Wesen eines Menschen ausmacht (als das, was den Menschen von anderen Tieren unterscheidet), und deren richtiges Funktionieren der Schlüssel für menschliches Wohlergehen und Glück sei. Die menschliche Vernunft hat auch in der modernen Zeit nichts von ihrem Reiz verloren. Ab dem 17. Jahrhundert, mit dem Beginn der Aufklärung wurde die Vernunft als die höchste menschliche Eigenschaft zur Gottheit erhoben. Dementsprechend wurde diese Epoche als Zeitalter der Vernunft bekannt. Jedoch war man sich in der Frage, welche Rolle genau die Vernunft für das richtige Funktionieren des Menschen spielt, nach wie vor höchst uneins. Die Vernunft wurde häufig den Sinneserfahrungen gegenüber gestellt, weithin interpretiert als das geeignetste Mittel zum Erwerb von Wissen über die Welt und darüber, wie der Mensch sich in dieser Welt am besten führen solle.

Rationalismus und Empirismus Das Zeitalter der Vernunft verdankt seinen Namen den Pionieren, die zunächst in England, wenig später in Schottland und Kontinentaleuropa, mit der Fackel der Vernunft Licht zu verbreiten suchten, um die Schatten von Vorurteil und Aberglaube zu vertreiben, die (wie sie annahmen) das vorangegangene Mittelalter in Dunkel gehüllt hatten. Überzeugungen würden fortan auf dem Prüfstein der Vernunft getestet und akzeptiert werden, anstatt auf klerikalen

Zeitleiste 6. Jh. v. Chr. Pythagoras stellt numerische Beziehungen fest und erkennt die Kraft der Vernunft

ca.

441 v. Chr.

Antigone von Sophokles wird in Athen aufgeführt

ca.

350 v. Chr.

Die Vernunft unterscheidet den Menschen von anderen Tieren (Aristoteles)

Vernunft

33

Autoritäten oder Traditionen zu gründen. Der Fortschritt der Wissenschaft deute im Allgemeinen darauf, dass die Welt verständlich strukturiert sei und ihre Geheimnisse durch die Kraft vernunftmäßigen Denkens aufgedeckt würden. Als einer der größten Gestalten der Aufklärung gilt der deutsche Philosoph Immanuel Kant. Er sieht die Aufklärung als Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit, aus einer Zeit der Unreife, in der es dem Menschen an „der Entschließung und des Muthes (mangelte), sich seines Verstandes ohne Anleitung eines anderen zu bedienen.“ Bereits zu Beginn des Zeitalters der Aufklärung begann sich allerdings ein philosophischer Graben aufzutun zwischen Rationalität und Rationalismus. Die Rationalität, das vernunftgeleitete Denken (das u. a. fordert, dass Überzeugungen auf einer angemessenen Bewertung verfügbarer Beweise basieren und alternative Erklärungen in Betracht gezoDoch ist der Rationalisgen werden), war als die bestimmende Tugend des Zeitalters mus ein abscheuliches weithin anerkannt. Im Gegensatz dazu war der Rationalismus (die Auffassung, dass die Vernunft ein einzigartig privilegiertes Monstrum, wenn er die Mittel ist, um gewisse Grundwahrheiten zu erkennen) von vorn Allmacht für sich in Anherein umstritten. Descartes hat sein philosophisches Gedanspruch nimmt. Dem Verkengebäude einzig aus Bausteinen der Vernunft gemauert und stand Allmacht zugesteauf das feste Fundament der rationalen Gewissheit gestellt, mit dem er all unser Wissen zu begründen hoffte, einschließlich des hen, das ist ein ebenso armseliger Akt des Götaus unseren Sinnen abgeleiteten Wissens. Die Vorrangstellung, die er der Vernunft beim Erwerb von Wissen einräumt, wurde zendienstes wie das von den anderen Rationalisten auf dem europäischen Kontinent, Praktizieren eines Kults von Leibniz und Spinoza, weitgehend anerkannt. Jedoch traten der Ahnen und der Steiihm die britischen Empiristen Locke, Berkeley und Hume in ne. Man soll die Vernunft zentralen Aspekten seiner Thesen scharf entgegen. Vor allem nicht ablehnen, sondern Hume tat sich darin hervor, die Vernunft von ihrem Sockel zu holen und bestreitet, dass ihr in normalen, empirischen (erfahdas in uns erkennen, was rungsbasierten) Prozessen, durch die unsere Vorstellungen gesie heiligt. formt werden, eine wesentliche Rolle zukomme. Er beharrt zuMahatma Gandhi, 1926 dem, dass die Vernunft beim Entscheiden moralischer Fragen dem menschlichen „Mitgefühl“ untergeordnet sei. Der einflussreichste Versuch, eine rationalistisch geprägte Erkenntnistheorie darzulegen, stammt von Kant. In seinem Werk Kritik der reinen Vernunft (1781) macht Kant sich daran, in einem bewusst großartigen Schachzug, den er mit der Kopernikanischen Revolution in der Astronomie vergleicht, zu zeigen, dass alle bisherigen Philosophien das Pferd von hinten aufgezäumt hatten. Allesamt hatten sie die Annahme zugrunde gelegt, dass „Erkenntnis sich nach den Gegenständen richten





1637

1739–1740

1781

1785

Descartes rühmt den Verstand als höchsten Garanten der Erkenntnis

Vernunft ist die Sklavin der Leidenschaften (Hume, Traktat über die menschliche Natur)

Kant legt seine rationalistisch geprägte Erkenntnistheorie in Die Kritik der reinen Vernunft dar

Die Vernunft ist die Schlüsselkomponente für moralisches Handeln (Kant, Grundlegung zur Metaphysik der Sitten)

34

Philosophie

Die Vernunft – die Sklavin der Leidenschaften Inwieweit Fragen nach Richtig und Falsch einer rationalen Bewertung unterworfen sind, war seit jeher ein Zankapfel zwischen Rationalisten und Empiristen. Wie in der Erkenntnistheorie gehören Kant und Hume auch hier zu den Hauptakteuren. Sein berühmtes Konzept einer subjektivistischen Moral entwickelt Hume in seinem Traktat über die menschliche Natur (1739– 1740). Er argumentiert, dass sich das Laster in einer vermeintlich grausamen Tat nicht finden lässt, „solange Ihr nur den Gegenstand betrachtet. Ihr könnt es nie finden, wofern ihr nicht euer Augenmerk auf Euer eigenes Inneres richtet, und dort ein Gefühl von Mißbilligung entdeckt, das in Euch angesichts dieser Handlung entsteht. Auch dies ist eine Tatsache, aber dieselbe ist Gegenstand des Gefühls, nicht der Vernunft. Sie liegt in euch selbst, nicht im Gegenstand.“ Nach Hume sind alle Menschen natürlicherweise bewegt von einem, wie er es nennt, „Moral Sense“ (moralischer Sinn) oder von „Sympathy“ (Mitgefühl), was nichts anderes bezeichnet als die Fähigkeit, sich mit dem Anderen gefühlsmäßig verbinden zu können, um Glück oder Leid zu teilen. Es sind also Gefühlsregungen, und eben nicht die Vernunft, die uns das Motiv für unser moralisches Handeln geben. Vernunft ist zwar wichtig, um die Konsequenzen unseres Handelns zu begreifen und um rational zu überlegen, wie wir moralische Ziele erreichen können. An sich aber ist der Verstand träge und unfähig, uns ursprüngliche Handlungsimpulse zu liefern. Und so gelangt Hume zu seinem berühmten Satz: „Die Ver-

nunft ist und sollte auch nur Sklavin der Leidenschaften sein.“ In seinem Werk Grundlegung zur Metaphysik der Sitten (1785) kritisiert Kant die von Hume eingenommene Haltung und verteidigt die Sicht der Rationalisten, wonach die „reine Vernunft“ und nicht Gefühl, Gewohnheit oder Autorität den Willen eines moralisch Handelnden berät und leitet. Jeder Handlung, so Kant, liegt eine Handlungsregel zugrunde, eine Maxime. Eine solche Maxime kann sich als moralisches Gesetz qualifizieren, wenn sie mit dem fundamentalen Standard der Rationalität übereinstimmt, dem sogenannten „Kategorischen Imperativ“: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“ Mit anderen Worten: Eine Handlung ist moralisch statthaft nur dann, wenn sie sich deckt mit einer Regel, die sich durchweg und universell auf die eigene Person und auf andere anwenden lässt. Beispiel: Wir stellen eine Maxime auf, die es erlaubt zu lügen oder zu stehlen. Doch Lügen und Stehlen machen nur Sinn vor dem Hintergrund der Begriffe „Wahrheit“ und „Eigentum“. Alle Vorstellungen von Wahrheit oder Besitz würden in sich zusammenfallen, wenn jeder lügen oder stehlen würde. Und so wäre es unvernünftig, Lügen und Stehlen zu universellen Gesetzen erheben zu wollen. Kant macht die Selbstkonsistenz damit zur Nagelprobe der Moral, zu einem Prinzip, das allein durch die Vernunft begriffen werden kann.

Vernunft müsse“, weshalb sie gescheitert waren. Daher schlage er vor, die Annahme umzukehren, so Kant, da die Gegenstände sich nach der Form der menschlichen Erkenntnis richteten. Er zeigt auf, dass es bestimmte Vorstellungen oder Denkkategorien gibt, wie etwa Substanz und Kausalität, die wir nicht von der Welt lernen können, die wir aber brauchen, um die Welt zu verstehen. Wir können gewiss sein, dass (zum Beispiel) unsere Logik und Mathematik im Lichte der Erfahrung nicht ungültig werden werden, weil eben jene Muster und Gleichförmigkeiten, auf denen sie beruhen, vom Verstand abstrahiert werden, der diese „blühende, schwirrende Konfusion“ der Wahrnehmungen in eine gedeutete Form bringt. Und gerade diese Fähigkeit ist es, die Fähigkeit, diesem Chaos der Sinnesdaten eine geordnete Struktur zu geben, die unser Denkvermögen, unsere Rationalität, ausmacht.

Der Reiz der Mathematik Für den Rationalisten, der glaubt, dass der Verstand Wahrheiten erfassen kann, die jenseits der sinnlichen Wahrnehmung liegen, ist die Mathematik von ganz besonderer Faszination. Sie scheint ein Paradigma der Erkenntnis zu bieten – abstrakte Gegenstände, von denen man alleine mit Hilfe des Verstandes etwas wissen kann. Der Empirist dagegen kann dies nicht unwidersprochen gelten lassen. Er muss entweder bestreiten, dass mathematische Erkenntnisse auf diese Weise gewonnen werden kön-

nen, oder er muss zeigen, dass ihre Schlussfolgerungen im Grunde tautologisch oder trivial sind. Letzteres läuft für gewöhnlich auf die Argumentation hinaus, dass die angenommenen abstrakten Fakten der Mathematik genau genommen menschliche Konstrukte sind und dass das mathematische Denken im Grunde eine Frage der Konvention ist – Konsens also, keine Feststellung; formaler Beweis, keine substanzielle Wahrheit.

Worum esLeidenschaften? geht Herrin oder Sklavin der

35

36

Philosophie

09 Strafe „Liest man die Geschichte … so ist man angewidert, nicht von den Verbrechen, die die Bösen begangen, sondern von den Strafen, die die Guten verhängt haben; und eine Gesellschaft verroht vielmehr durch die gewohnheitsmäßige Anwendung von Strafen als durch das gelegentliche Vorkommen von Verbrechen.“ Im flotten Gewand des marxistischen Ästheten bringt Oscar Wilde in Der Sozialismus und die Seele des Menschen (1891) in eleganter Manier etwas auf den Punkt, was möglicherweise das zentrale Paradox ist im schwierigen Verhältnis der Gesellschaft zu Verbrechen und Strafe. Indem sie Strafen verhängen und einigen Bürgern einer Gesellschaft Schaden beibringen, übertreten die Staatsvertreter wissentlich ethische Grenzen und stehen damit in einem gewissen Sinne der Schlechtigkeit der Bestraften in nichts nach. Und indem sie so verfahren, besudeln sie, so will es scheinen, allein schon den Begriff der zivilisierten Gesellschaft. Kennzeichen einer zivilisierten Gesellschaft ist, so würden viele sagen, die Verteidigung der Rechte ihrer Bürger aus eigener Fähigkeit heraus: sie vor Willkür und Schaden seitens des Staates oder anderer Individuen zu schützen, ihnen die volle politische Teilhabe zu gewähren sowie ihnen Rede- und Bewegungsfreiheit zu garantieren. Wieso ist es dann eine Angelegenheit der Gesellschaft, ihren Bürgern absichtsvoll Schaden beizubringen, sie von politischen Prozessen auszuschließen, sie in ihrer Bewegungs- und Redefreiheit zu beschränken? Denn genau dieses Vorrecht nimmt sich der Staat heraus, wenn er beschließt, seine Bürger zu bestrafen, wenn sie die Regeln gebrochen haben, die er selbst ihnen auferlegt hat. Aus philosophischer Sicht besteht das „Problem der Strafe“ mithin darin, eine Erklärung und Rechtfertigung zu finden für einen Staat, der sich allein durch den Vollzug der Bestrafung scheinbar auf die Stufe der Verbrecher herablässt. Bei dieser Fragestellung folgen Strafrechtler allgemein zwei völlig unterschiedlichen Argumentationslinien. Die einen betonen die nutzbringenden Konsequenzen, die sich aus der Bestrafung von Übeltätern ergeben, wie etwa Abschreckung und Schutz der Öffentlichkeit. Die anderen heben darauf ab, dass Strafe an sich gut sei, eine Form der

Zeitleiste 1789

1823

„Jede Strafe ist an sich ein Übel“, argumentiert Bentham

Der „Prison Act“, gefördert durch Elizabeth Fry, verbessert die Haftbedingungen in Großbritannien

Strafe

37

Vergeltung oder auch Ausdruck von Missbilligung seitens der Gesellschaft, und zwar unabhängig von anderen nutzbringenden Konsequenzen.

„Jeder bekommt, was er verdient“ Diese Grundeinstellung ist weit verbreitet: So wie der Mensch von seinem Wohlverhalten profitieren sollte, so sollte er auch für sein Fehlverhalten die rechte Strafe bekommen. Der Gedanke der Vergeltung – dass Fehlverhalten seinen Preis hat (zum Beispiel den Verlust der Freiheit) – passt bequem zu dieser intuitiven Grundeinstellung. Hin und wieder wird eine weitere Idee angeführt, wonach ein Fehlverhalten ein moralisches Ungleichgewicht erzeuge, das erst dann wieder ausbalanciert ist, wenn der Übeltäter „seine Schuld an die Gesellschaft zurückbezahlt“. Ein jeder untersteht der Pflicht, die Regeln der Gesellschaft nicht zu brechen, um sich dadurch einen unfairen Vorteil zu verschaffen. Tut es jemand, so lädt er eine Strafe (oder eine Schuld) auf sich, die es zu bezahlen gilt. Diese Metapher aus der Finanzwelt lässt sich leicht dahin ausdehnen, dass ein gerechter Handel verlangt wird; dass die Schwere der Strafe der Schwere des Verbrechens entsprechen sollte.



Wenn der, der das Gesetz bricht, nicht bestraft wird, wird der, der ihm stets gehorcht, betrogen. Darum, und darum allein, sollten Gesetzesbrecher bestraft werden: um gesetzestreues Verhalten als gut zu verbürgen und als nutzvoll zu befördern. Thomas Szasz, 1974



Die Vorstellung, dass Strafe dem Verbrechen „entsprechen“ solle, wird gestützt von der lex talionis (dem „Gesetz der Vergeltung“) der hebräischen Bibel: „Auge um Auge, Zahn um Zahn“. Dies impliziert, dass Verbrechen und Strafe sich nicht nur in der Schwere, sondern auch in der Art entsprechen sollten. Analog dazu formulieren Befürworter der Todesstrafe häufig den Satz „Leben um Leben“, worin sie die einzige Wiedergutmachung für ein Tötungsdelikt sehen. Allerdings heißt dies nicht, dass sie ebenso dafür sind, dass zum Beispiel ein Vergewaltiger vergewaltigt werden sollte. Diese biblische Unterstützung für Theorien der Vergeltung zeigt den Kern der Problematik: Die lex talionis ist das Gesetz eines ‚rachsüchtigen Gottes’, was für Befürworter solcher Vergeltungstheorien eine Gratwanderung zwischen Vergeltung und Rache bedeutet, wenn sie sich moralisch im Recht fühlen wollen.

1840

1891

2007

2008

Das moderne Konzept der Bewährungsstrafen wird erstmals in australischen Strafkolonien eingeführt

Der Sozialismus und die Seele des Menschen von Oscar Wilde erscheint

China verantwortlich für ca. 40 % bestätigter Hinrichtungen weltweit

Todesstrafe besteht in 36 von 50 US-Bundesstaaten

38

Philosophie Die Vorstellung, irgendein Verbrechen ‚schreie’ nach Strafe, wird bisweilen damit verhüllt umschrieben, dass Strafe der Ausdruck der Entrüstung der Gesellschaft über eine bestimmte Tat sei. Doch wenn die Vergeltung kaum auf wenig mehr als das Verlangen nach Rache reduziert wird, dann scheint sie für sich genommen kaum angemessen als eine Rechtfertigung für Strafe.

Ein notwendiges Übel Die Idee, dass Strafe in einem absoluten Sinne an sich gut sei, wird von jenen bestritten, die sich auf soziale Konsequenzen konzentrieren. So zeigt sich Jeremy Bentham, Pionier des klassischen Utilitarismus, der gegen Ende des 18. Jahrhunderts schrieb, überzeugt davon, dass Strafe absolut schlecht sei: „Strafe ist immer ein Übel; jede Strafe ist an sich ein Übel.“ Aus seiner Sicht ist Strafe bestenfalls ein notwendiges Übel: ein Sorgt die Todesstrafe Übel, da sie das menschliche Elend weiter vermehrt, und nur für die Sicherheit der gerechtfertigt, insoweit ihr Nutzen dieses Elend überwiegt. Dies Menschen? Mitnichten. ist auch nicht nur eine theoretische Position, wie die äußerst Sie verhärtet die Herzen, praktisch veranlagte Reformerin des Gefängniswesens im 19. und lässt den Verlust Jahrhunderts, Elisabeth Fry, deutlich macht: „Es geht bei der Strafe nicht um Rache, sondern darum, Verbrechen zu mindern des Lebens leicht und Verbrecher zu bessern.“ erscheinen. Im Falle schwerer Verbrechen, wo die öffentliche Sicherheit Elizabeth Fry, 1848 gefährdet ist, ist der Notwendigkeit, dass Strafmaßnahmen in der Form der Unfähigmachung im öffentlichen Interesse ergriffen werden sollten, kaum zu widersprechen. Ein deutliches Beispiel hierfür: Ein Mörder wird mit Sicherheit nicht erneut straffällig werden, solange er hinter Gittern sitzt. Eine weitere utilitaristische Grundlage, auf die eine Rechtfertigung von Strafe gebaut ist, ist die Abschreckung. Doch diese Begründung lässt sich nicht so einfach herstellen. Oberflächlich betrachtet scheint es widernatürlich, zu argumentieren, jemand solle bestraft werden, und zwar nicht wegen des Verbrechens, das er begangen hat, sondern um andere von Strafhandlungen abzuschrecken. Außerdem gibt es Zweifel an der praktischen Brauchbarkeit solcher Thesen, da laut Studien die wesentlichste Abschreckung die Angst vor dem Erwischt-Werden ist, nicht die Strafe, die darauf folgen mag. Der andere Argumentationsstrang der Utilitaristen befürwortet eine Resozialisierung und Rehabilitation des Straffälligen. Strafe als eine Art Therapie zu betrachten, durch die Straftäter umerzogen und gebessert werden, sodass sie wieder zu vollständigen und nützlichen Mitgliedern der Gesellschaft werden, mag zumindest für liberal Gesinnte sehr attraktiv erscheinen. Zu den Beispielen aus der Praxis zählen etwa Strafen, die zur Bewährung ausgesetzt werden und für Häftlinge Anreize sind, sich künftig wohl zu verhalten. Allerdings steht ernsthaft zu bezweifeln, ob Strafrechtssysteme, zumindest die meisten bestehenden, derlei Aufgaben leisten und diese Ziele erreichen können.





Strafe Schwachstellen in den utilitaristischen Straftheorien sind schnell gefunden. Man könnte viele Fälle zitieren, wo ein Straftäter keine Gefahr für die Öffentlichkeit darstellt, wo er keine Rehabilitation benötigt, oder wo die Strafe keinerlei abschreckende Wirkung zeigen würde. Der übliche Ansatz der Utilitaristen ist daher, ein Bündel möglicher nützlicher Konsequenzen anzubieten, die eine Strafe erbringt, ohne damit anzudeuten, dass sie alle auch auf alle Fälle anwendbar sind. Einige wenige sind sogar einen Schritt weiter gegangen und haben hybride Theorien entwickelt, die auch etwas Raum lassen für Elemente der Vergeltung.

Die Todesstrafe Befürworter der Todesstrafe argumentieren oft, es sei richtig und gerecht, die allerschwersten Verbrechen mit der allerschwersten Strafe zu bestrafen. Der vermeintliche Nutzen – vor allem Abschreckung und Schutz der Öffentlichkeit – wird ebenfalls häufig angeführt. Doch würden die meisten Befürworter sie wohl nicht allein auf dieser Basis rechtfertigen wollen, sondern sie vielmehr als eine angemessene Reaktion sehen, die die Abscheu der Gesellschaft über eine begangene Straftat spiegelt. Gegner der Todesstrafe erwidern hierauf, dass der Abschreckungswert im besten Falle zweifelhaft sei, denn lebenslange Haft biete denselben Schutz für die Öffentlichkeit, und allein die Einrichtung der Todesstrafe stelle

eine Herabwürdigung der Gesellschaft dar. Das stärkste Argument gegen die Todesstrafe – die Gewissheit, dass unschuldige Menschen davon betroffen sind und waren und weiterhin unschuldig getötet würden – ist kaum zu entkräften. Man könnte argumentieren, dass einige Verbrecher den Tod einem Leben hinter Gittern vorziehen mögen und demnach die Wahl haben müssten, selbst darüber entscheiden zu können. Doch das wiederum macht das gleiche Argument zum Argument gegen die Todesstrafe, denn so könnte es sein, dass die höchstmögliche Strafe die ist, das Leid der Schwerstverbrecher mit einer lebenslangen Haft zu verlängern.

Worum es geht Ein notwendiges Übel?

39

40

Philosophie

10 Materialismus „Diese Menschen sitzen nicht am Strand und lauschen dem steten Rauschen der rollenden Brandung. Sie sitzen am Strand und lauschen den aperiodischen atmosphärischen Druckwellen, die erzeugt werden während die kohärente Energie der Meereswellen hörbar im chaotischen Wirbel der Untiefen neu verteilt wird … Sie beobachten nicht die Abendröte am westlichen Himmel. Sie beobachten die Wellenlängenverteilung der einfallenden Sonnenstrahlen, die sich zu längeren Wellenlängen hin verschieben, während die kürzeren sich zunehmend zerstreuen, weg von der sich verlängernden atmosphärischen Bahn, die sie nehmen müssen, während die Erdrotation uns langsam aus deren Ursprung dreht.“ Ein vielleicht humoriges Bild. Doch hinter dieser Vision einer wissenschaftlich erfassten und betrachteten Zukunft, die der kanadische Philosoph Paul Churchland im Jahr 1979 zeichnet, steckt eine durchaus ernste Absicht. Mit der Zeit, so Churchland, mit einem fortschreitenden Wissenschaftsverständnis, wird die „Alltagspsychologie“ (die allgemein verbreiteten Denk- und Ausdrucksweisen, in denen wir innere Vorgänge geistiger und emotionaler Art mit Begriffen wie „Überzeugung“, „Wunsch“, „Absicht“ usw. ausdrücken) verschwinden und ersetzt sein durch präzise Konzepte und Beschreibungen, die primär aus den Neurowissenschaften kommen. Wie die große Mehrheit der heutigen Philosophen und Wissenschaftler vertritt Churchland die Position des Materialismus (oder Physikalismus). Angetrieben vom unbestreitbaren Fortschritt der Wissenschaft glaubt er, dass die Welt und alles darin, einschließlich der Menschen, aus Materie bestünden; dass das Universum ausschließlich physikalisch ist und, theoretisch zumindest, rein physikalisch erklärbar sei in Form von physikalischen Gesetzen und Vorgängen. Eine Folge dieser Anschauung ist, dass nichts nicht-physikalisch sein kann: Es gibt weder Raum für spirituelle oder übernatürliche Phänomene (einschließlich Götter) noch für einen Geist oder mentale Zustände, sofern sie als außerhalb der physikalischen Welt liegend betrachtet werden. Churchlands „eliminativer Materialismus“, nach seinem Bestreben benannt, die Konzepte der Alltagspsychologie allesamt über Bord zu werfen, ist damit ganz klar eine der radikalsten Varianten der materialistischen Theorien. Jedoch ist das Problem, das er anzugehen versucht, zentral für alle Materialisten. Wir sind

Zeitleiste 1640er

1710

1949

Descartes formuliert den LeibSeele-Dualismus

George Berkeley bringt seine immaterialistische Theorie vor

Gilbert Ryle entwickelt den (logischen) Behaviorismus

Materialismus



Niemand hat auch nur die geringste Ahnung, wie etwas Materielles bewusst sein kann. Niemand weiß sogar, wie es wäre, auch nur die geringste Ahnung davon zu haben, wie etwas Materielles bewusst sein kann. So viel zur Philosophie des Bewusstseins. Jerry Fodor, US-amerikanischer Philosoph, 1992



uns des eigenen Bewusstseins sowie des reichen Spektrums der mentalen Zustände, die dazu gehören, unmittelbar bewusst. Aber wie kann dieses so rege mentale Leben, dieser im Grunde subjektive und private Geist, in eine rein physikalische Betrachtung der Welt eingepasst werden – in eine Betrachtung, wie sie die Wissenschaft liefert, die grundsätzlich objektiv, nicht-perspektivisch und öffentlich zugänglich ist?

Schwierige Beziehungen Die Fortschritte der Neurowissenschaft haben zweifelsohne bewiesen, dass es eine enge Verbindung gibt zwischen mentalen und physikalischen Zuständen. Mit Ausnahme der Vertreter des eliminativen Materialismus (wie Churchland), die mentale Konzepte begreifen als eine Art primitiver, bald verschwundener Konstrukte, stimmen die restlichen Vertreter der materialistischen Position weitgehend überein, dass bewusste Erfahrungen aus elektrochemischen Vorgängen hervorgehen, die sich innerhalb des umfangreichen Nervenfasergeflechts abspielen, aus dem das Gehirn besteht, oder dass sie auf irgendeine Weise dadurch bestimmt werden. Ausgesprochen uneins allerdings ist man sich in der Frage, wie dieses „Hervorgehen“ konkret aussehen soll. Einst waren viele Materialisten davon überzeugt, dass ein bestimmter mentaler Zustand prinzipiell mit einem bestimmten neuronalen Zustand im Gehirn identifiziert werden könnte. So könnten Schmerzen zum Beispiel unmittelbar mit der Erregung einer bestimmten Reihe von Nervenfasern korrelieren. Nach dieser Sicht wären Schmerzen keine Art Nebenprodukt eines bestimmten Ereignisses im Gehirn, nein, sie wären dieses Ereignis (identisch mit diesem). Mit dem Argument der sogenannten „multiplen Realisierbarkeit“ jedoch – mit der Erkenntnis, dass ein einzelner mentaler Zustand durch mehrere verschiedene physikalische Zustände produziert werden kann – galten solcherlei naive Identitätstheorien als widerlegt. Heute führen Materialisten bisweilen eine nicht-symmetrische Abhängigkeitsbeziehung ein, die sogenannte „Supervenienz“. Danach sind mentale Eigenschaften in einem gewissen Sinne abhängig oder supervenient gegenüber physischen, insofern, dass erstere

1950er

1974

1979

Der Funktionalismus entsteht als Antwort auf ungeklärte Aspekte des Behaviorismus

Thomas Nagel fragt: „Wie ist es, eine Fledermaus zu sein?“

Paul Churchland bringt den eliminativen Materialismus vor

41

42

Philosophie

Der idealistische Pfad Der Materialismus wurde vor allem dadurch motiviert, dass der Leib-Seele-Dualismus, wie er im 17. Jahrhundert vom französischen Philosophen René Descartes entwickelt wurde, mit ernsten Schwierigkeiten verbunden war. Descartes unterscheidet zwei getrennte Bereiche – geistige Substanzen und materielle Substanzen. Deren Beziehung ist derart mysteriös, dass sie geradezu dazu anspornt, der Theorie Descartes` mit einer gegenteiligen Position zu begegnen und einen monistischen Ansatz zu entwickeln. Das heißt, von der Existenz nur einer Substanz auszugehen. Während die Mehrheit der Philosophen angenommen hat, dass die einzige Substanz die materielle ist, haben einige den idealistischen Pfad eingeschlagen und behauptet, dass die Wirklichkeit nur aus dem Geist und seinen Ideen besteht. Der bekannteste Vertreter des Idealismus ist George Berkeley, der fürchtete, dass, wenn unsere Wahrnehmung von der Welt, auf die „äußeren, sichtbaren Abbilder oder

Ideen von den Dingen“ begrenzt wäre (wovon er ausging), es niemals eine Möglichkeit gäbe zu verifizieren, dass diese Ideen auch tatsächlich die äußeren Dinge an sich abbildeten. Es gäbe also immer einen undurchdringlichen „Schleier der Wahrnehmung“ zwischen uns und der realen physischen Außenwelt. Wir wären gefangen in einer Welt der Abbilder, und damit bliebe die Tür weit geöffnet für extremen Skeptizismus. Doch Berkeley kommt zu einem überraschenden Schluss: Er leugnet eine reale physische Außenwelt und behauptet, dass auf der anderen Seite des Schleiers gar nichts existiere und die Wirklichkeit in den „Ideen“ selbst bestünde. Unglücklicherweise für Berkeley wird er heute wahrscheinlich meistens nur mit dem berühmten, wenn auch verständnislosen Ausspruch des englischen Gelehrten Samuel Johnson in Verbindung gebracht, als dieser wütend über Berkeleys Beweis der Nicht-Existenz der Materie mit den Worten „So widerlege ich das“ gegen einen Stein trat.

gänzlich durch letztere bestimmt sind, letztere jedoch ohne erstere auftreten können. Man könnte hier eine Parallele zu ästhetischen Eigenschaften von Objekten ziehen, die durch gewisse zugrunde liegende physikalische Merkmale bestimmt sind, von den physikalischen Eigenschaften aber unterschieden bleiben. Ohne weitere Erläuterung jedoch scheint es, als verlagere die Idee einer Supervenienz das Problem nur, löse es aber nicht. Wahrscheinlich eine der einflussreichsten und weithin vertretenen Positionen unter den materialistischen Positionen zum Gehirn-Geist-Problem der neueren Zeit ist der Funktionalismus. Sie erwuchs aus einer fehlerhaften früheren Position, dem sogenannten Behaviorismus (für den die These kennzeichnend ist, dass mentale Phänomene direkt in Aussagen über Verhalten oder Verhaltensdispositionen übersetzt werden können, und zwar ohne inhaltliche Verluste). Nach der funktionalistischen Lesart nun sind mentale Zustände funktionale (keine physikalischen) Zustände: Ein funktionaler Zustand ist durch die Rolle oder Funktion definiert, die er einnimmt in

Materialismus



Ohne das Thema ‚Bewußtsein‘ wäre das Leib-Seele-Problem weit weniger interessant. Mit dem Thema Bewußtsein scheint es hoffnungslos. Thomas Nagel, US-amerikanischer Philosoph, 1974



Bezug auf einen bestimmten Input (die Ursachen, die ihn hervorrufen), in Bezug auf einen anderen funktionalen Zustand, und in Bezug auf einen bestimmten Output (die Wirkung, die er auf das Verhalten typischerweise hat). Ein großes Problem für den Funktionalismus (wie früher für den Behaviorismus) besteht darin, dass er keinerlei Licht wirft auf mentale Zustände an sich. Er betrachtet sie alleinig im Rahmen ihrer Beziehungen zu anderen mentalen Zuständen, zu Inputs (Stimuli unterschiedlichster Art) und Outputs (Verhalten unterschiedlichster Art). Im Endeffekt also sagt der Funktionalismus nichts aus über das Bewusstsein an sich und geht damit auch nicht auf den Aspekt ein, der – darin sind sich fast alle einig –, am dringlichsten einer Erklärung bedarf.

„Wie ist es, eine Fledermaus zu sein“ Der so überschriebene Aufsatz des USamerikanischen Philosophen Thomas Nagel von 1974 bringt kurz und bündig das Unbehagen auf den Punkt, das manch einer bei den vielen Versuchen, unsere Gedankenwelt und unser Bewusstsein unter rein physikalischen Bedingungen zu analysieren, empfinden mag: „… sich vorzustellen, dass man Flughäute an den Armen hätte, die einen befähigten, bei Einbruch der Dunkelheit und im Morgengrauen herumzufliegen, während man mit dem Mund Insekten finge; dass man ein schwaches Sehvermögen hätte und die Umwelt mit einem System reflektierter akustischer Signale aus Hochfrequenzbereichen wahrnähme; und dass man den Tag an den Füßen nach unten hängend verbrächte. Insoweit ich mir dies vorstellen

kann (was nicht sehr weit ist), sagt es mir nur, wie es für mich wäre, mich so zu verhalten, wie sich eine Fledermaus verhält. Das aber ist nicht die Frage. Ich möchte wissen, wie es für eine Fledermaus ist, eine Fledermaus zu sein.“ Nagels Kernaussage ist, dass es ein „subjektives Merkmal von Erfahrung“ gibt – etwas, das ein bestimmtes Wesen zu sein und als solches zu empfinden ausmacht, sprich wie es sich anfühlt, dieses Wesen zu sein, etwas, das der materialistischen Position immer entgeht. Und so, folgert Nagel, „… ist es ein Rätsel, wie der wahre Charakter von Erlebnissen in der Funktionsweise dieses Organismus entdeckt werden könnte“ – was an sich alles ist, das die Wissenschaft zu bieten hat.

Worum es den geht Materie bestimmt Geist

43

44

Philosophie

11 Relativismus „Einen klaren Glauben zu haben, gemäß dem Credo der Kirche, wird oft als Fundamentalismus hingestellt. Während der Relativismus, also das „hin und her getrieben Sein vom Widerstreit der Meinungen“ als die einzige Einstellung erscheint, die auf der Höhe der heutigen Zeit ist. Es konstituiert sich eine Diktatur des Relativismus, die nichts als definitiv anerkennt und die als letztes Maß nur das Ich und seine Bedürfnisse lässt.“ Am 18. April 2005, am Tag vor seiner Wahl zum Papst Benedikt XVI, hält Kardinal Joseph Ratzinger zur Eröffnung des Konklaves eine Predigt, in der er den sozialen und moralischen Zerfall, der von Praktiken gekennzeichnet ist wie gleichgeschlechtlichen Ehen und Abtreibung, auf die Ausbreitung des Relativismus zurückführt. Die Gewissheit des Glaubens, der „uns all dem gegenüber öffnet, was gut ist, und uns das Kriterium liefert, zwischen Wahr und Falsch zu unterscheiden“, wurde nach Meinung Ratzingers verdrängt von einem zerstörerischen Glauben, in dem eine Anschauung so gut ist wie eine andere und es daher unmöglich ist, in irgendeiner Frage zu absoluter Wahrheit zu gelangen. Dies führe zu einem abwegigen, gesetzlosen Freiheitsgefühl, das in eine moralische, vor allem sexuelle, Zuchtlosigkeit münde. Die konservative Agenda des angehenden neuen Papstes ist deutlich genug. Gleichwohl beschreibt er sehr genau die soziale und politische Bedeutung einer Denkweise, die vor allem in liberalen Demokratien der westlichen Welt weit verbreitet ist. Vom oberflächlichen Urteil ausgehend, dass „alles relativ ist“, also eine Frage der Sicht oder des Standpunktes, wird Was ist Moral in einer allgemein gefolgert, dass „alles erlaubt ist“, und so hat es in den beliebigen Zeit, an einem letzten Jahrzehnten nicht an Libertaristen gemangelt, die diese beliebigen Ort? Es ist Einstellungen zu ihrem Mantra gemacht haben, um sich gegen das, was der Mehrheit traditionelle oder reaktionäre Kräfte, ob religiös oder anderweidann und dort zufällig ge- tig, aufzulehnen.



fällt. Und Unmoral ist das, Dem einen ist’s Speise … Der Relativismus mag zwar exwas ihr nicht gefällt. treme Standpunkte provozieren (wie im obigen Beispiel), doch Alfred North Whitehead, 1953 die Notwendigkeit für einen gewissen moralischen und kulturel-



Zeitleiste 6. Jh. v. Chr.

5. Jh. v. Chr.

Darius der Große, König von Persien, zeigt (laut Herodot) ein Gespür für Relativismus

Der radikale Relativist Protagoras unterliegt Platons Sokrates

Relativismus len Relativismus ist seit tausenden von Jahren anerkannt. Der griechische Geschichtsschreiber Herodot, der im 5. Jahrhundert v. Chr. schrieb, erzählt die Geschichte von Griechen am Hofe des persischen Königs Darius, die entsetzt sind über den Vorschlag, die Leichen ihrer Väter zu verspeisen; sie werden daraufhin den Mitgliedern des Stammes der Kallatier vorgeführt, die eben jene Praktik vollziehen, nur um festzustellen, dass die Kallatier nicht minder angewidert sind von der griechischen Gepflogenheit, die Leichen ihrer Ahnen zu verbrennen. Herodot zitiert daraufhin zustimmend den Satz des Dichters Pindar: „Die Sitte sei aller Menschen König“: Es geht dabei nicht darum, dass eine Seite richtig und die andere falsch liegt – jede Gruppe hat ihren eigenen Kodex von Sitten und Traditionen, und Urteile über ihr Verhalten sollten nicht unter Missachtung desselben gefällt werden. Aus derlei Fällen von kultureller Verschiedenheit folgern eingefleischte Relativisten, dass es überhaupt keine absoluten oder universalen Wahrheiten gibt: Alle moralischen Beurteilungen und Bewertungen sind allenfalls relativ zu den sozialen Normen einer Gruppe gültig. Nach dem Relativismus können wir moralische Werturteile so behandeln, als wären sie ästhetische. Schmecken Ihnen Austern? Ja? Mein Geschmack sind sie nicht. Wir sind uns also einig, dass wir einen unterschiedlichen Geschmack haben. Was für Sie richtig oder wahr ist, muss für mich nicht ebenso richtig oder wahr sein. In solchen Fällen folgt Wahrheit der Aufrichtigkeit: Wenn ich aufrichtig sage, dass ich etwas mag, dann kann ich nicht irren – es ist wahr (für mich). Folgen wir dieser Analogie, so der Relativist, und sagen, dass wir (als eine Gesellschaft) die Todesstrafe befürworten, so ist das moralisch richtig (für uns) und etwas, worin wir nicht irren können. Genauso wie wir nicht auf die Idee kommen würden, jemanden davon abzubringen, Austern zu mögen oder ihn dafür zu kritisieren, dass er Tomaten mag, ist auch in Sachen Moral Überredung und Kritik fehl am Platz.

Moralische Verschiedenheiten Das Problem ist natürlich, dass unsere moralischen Haltungen voll sind von Einwänden und Kritik, und wir nehmen gewohnheitsmäßig eine strikte Position ein, wenn es um Fragen wie die Todesstrafe geht. Gut möglich auch, dass wir im Laufe der Zeit unsere Meinung zu einer moralischen Frage ändern. Die Aussage des ausgemachten Relativisten müsste hier lauten, dass eine Sache für einige Leute richtig ist, nicht aber für andere; oder dass sie einst für mich (oder uns) richtig war, jetzt aber nicht mehr richtig ist. Und das könnte im Falle von Völkermord, Sklaverei, der Mädchenbeschneidung, legaler Kindstötung usw. eine bittere Pille sein, die der Relativist schlucken müsste. Dass der Relativismus darin versagt, die Aspekte, die ohne Frage charakteristisch sind für unser tatsächliches Moralleben, ernsthaft in Betracht zu ziehen, ist für Kri-

1962

2005

Nach Kuhns Idee des Paradigmenwechsels ist die Wissenschaft nicht gegen den Relativismus gefeit

Papst Benedikt XVI verdammt die Diktatur des Relativismus

45

46

Philosophie

Wissenschaftlicher Relativismus In seinem Werk Die Struktur wissenschaftlicher Revolutionen (1962) stellt der amerikanische Philosoph Thomas Kuhn die konventionelle Sicht in Frage, wonach die Weiterentwicklung der Wissenschaft ein kumulativer Prozess sei, in welchem jede Wissenschaftsgeneration auf den Entdeckungen ihrer Vorgänger aufbaut. Stattdessen beschreibt er die wissenschaftliche Entwicklung als einen schubweisen, unbeständigen Fortschritt, der immer wieder unterbrochen war von revolutionären Krisen, die als „Paradigmenwechsel“ bezeichnet werden. Ein zentraler Gesichtspunkt in Kuhns Bild vom wissenschaftlichen Wandel ist, dass dieser kulturell eingebettet ist in eine Unzahl historischer und anderer Faktoren. Obgleich Kuhn sich bemühte, sich selbst von einer relativistischen Lesart seiner Arbeit zu distanzieren, wirft eine solche Sicht der Wissenschaftsentwicklung doch Zweifel auf an der ganzen Vorstellung von wissen-

schaftlicher Wahrheit und der Idee, das Ziel von Wissenschaft sei, auf objektive Weise wahre Fakten über die Natur der Welt zu entdecken. Denn was für einen Sinn ergibt es, von objektiver Wahrheit zu sprechen, wenn jede wissenschaftliche Gemeinschaft ihre eigenen Standards und Normen von Beleg und Beweis festlegt und dann alles durch ein Netz bereits bestehender Annahmen und Überzeugungen filtert? Nach gängiger Ansicht hängt die Wahrheit einer wissenschaftlichen Theorie davon ab, wie gut sie sich bei neutraler und objektiver Beobachtung der Welt bewährt. Doch was, wenn es gar keine „neutralen Fakten“ und gar keine klare Linie zwischen Theorie und empirischen Daten gibt? Was, wenn, wie Kuhn behauptet, jedwede Beobachtung „theoriebefrachtet“ ist, überwuchert von einer dicken Schicht bestehender Überzeugungen und Theorien?

tiker ein schlagendes Argument gegen die relativistische These. Aber gerade das verbuchen die Relativisten unter dem Vorzeichen Toleranz als einen Vorteil für sich. Wir sollten vielleicht, so sagen sie, nicht immer so wertend und kritisch mit anderen sein, sondern toleranter und unvoreingenommener im Umgang mit Anderen sowie sensibler für deren Sitten und Bräuche sein. Der Relativismus fördere also Toleranz und Vorurteilsfreiheit, meinen sie, wohingegen die Nicht-Relativisten intolerant und voreingenommen seien, wenn es um Gepflogenheiten geht, die anders sind als die ihrigen. Aber dieses Bild ist eine Karikatur, eine Verzerrung: Man kann einerseits im Allgemeinen sehr wohl tolerant sein und dennoch andererseits behaupten, dass andere Menschen oder Kulturen bei dem einen oder anderen Thema falsch liegen. Tatsächlich können sich nur die Nicht-Relativisten Toleranz und kulturelles Feingefühl als universale Tugenden auf die Fahnen schreiben, was für die Relativisten doch sehr entmutigend sein muss.

Relativismus Auf die Perspektive kommt es an Ein ausgeprägter, radikaler Relativismus – die Idee, dass alle Behauptungen (moralische und andere) relativ sind –, verfängt sich rasch in der eigenen Schlinge. Ist die Behauptung, alle Behauptungen seien relativ, selbst relativ? Nun, das muss sie sein, um einen Selbstwiderspruch zu vermeiden; aber wenn es so ist, dann bedeutet das, dass meine Behauptung, alle Behauptungen seien absolut, für mich wahr ist. Und diese Art der Inkohärenz wirkt sich schnell auf alles andere aus. Der Relativist kann die (universelle) Gültigkeit seiner eigenen Position unmöglich in konsequenter Weise und ohne Heuchelei aufrechterhalten. Wie widersprüchlich der radikale Relativismus ist, hat bereits Platon erkannt. Er zeigt in seinem Dialog Protagoras auf, wie sich der Sophist Protagoras mit seiner relativistischen Auffassung in Widersprüchlichkeiten verwickelt. Die Lektion daraus ist, dass wir uns auf der rationalen Ebene nur verständigen können, wenn wir irgendeine gemeinsame Basis haben; irgendeine Übereinkunft darüber, was wir als gemeinsame Wahrheit anerkennen, um überhaupt sinnvoll kommunizieren zu können. Der Mensch ist das Die Absurdität eines vollendeten Relativismus führt dazu, Maß aller Dinge dass Einsichten, die mäßigere Formen des Relativismus bereitProtagoras, 5. Jahrhundert v. Chr. halten, bisweilen übersehen werden. Die wichtigste Lektion des Relativismus ist die, dass das Wissen selbst perspektivisch ist: unsere Sicht auf die Welt erfolgt immer aus einer bestimmten Perspektive (oder Sichtweise) heraus; es gibt keinen außen befindlichen Punkt, von dem aus wir die Welt „so wie sie wirklich ist“ beobachten können. Dieser Aspekt wird häufig auch mit den Konzepten „begriffliches Schema“ oder „begrifflicher Rahmen“ erläutert. Einfach ausgedrückt: Ein geistiges Verständnis von der Wirklichkeit können wir nur von innerhalb unseres eigenen begrifflichen Rahmens heraus erlangen, der von allerlei komplexen Faktoren bestimmt ist, darunter auch Kultur und Geschichte. Doch die Tatsache, dass wir uns nicht außerhalb unseres jeweiligen begrifflichen Schemas stellen und eine objektive Sicht auf die Dinge erhalten können – eine gottgleiche Sicht –, bedeutet nicht, dass wir keine Einsichten erlangen können. Denn eine Perspektive ist immer eine bestimmte Sicht auf etwas, und indem wir unsere verschiedenen Perspektiven und Überzeugungen austauschen und vergleichen, können wir hoffen, sie gegenseitig abzugleichen und damit ein kompletteres, runderes und weit gefasstes „stereoskopisches“ Bild von der Welt zu gewinnen.



Worum es geht Alles ist erlaubt?



47

48

Philosophie

12 Utilitarismus Kirk ist todkrank und wird sicher binnen einer Woche sterben, aber er wird künstlich am Leben gehalten. Sein Herz und seine Nieren wären perfekte Transplantate für Scottie und Bones, die noch vor ihm sterben werden, sollten sie nicht die lebensrettenden Transplantate bekommen, mit denen sie gute Gesundungschancen hätten. Andere Spender sind auf der Enterprise nicht verfügbar. Ist es nun richtig, Kirk sterben zu lassen oder ihn gar zu töten, um das Leben von Scottie und Bones zu retten? Auf der einen Seite scheint klar, dass es einem guten Zweck dient, Kirk sterben zu lassen; auf der anderen Seite empfinden wir es als falsch, jemanden sterben zu lassen oder ihn gar zu töten, so gute Konsequenzen dies auch haben mag. Ob eine Handlung richtig oder falsch ist, müsse allein nach ihren Konsequenzen bewertet werden. Diese Idee, die als philosophische Konzeption unter dem Begriff „Konsequentialismus“ bekannt ist, hat viele Philosophen fasziniert. Die einflussreichste konsequenzialistische Theorie ist der Utilitarismus. Seine grundlegende Aussage besteht darin, dass jede beliebige Handlung danach als richtig oder falsch gewertet werden kann, in welchem Maß sie das menschliche Wohlergehen oder den „Nutzen“ entweder erhöht oder mindert. Szenarien wie das von Kirk mögen weit hergeholt erscheinen, doch auch im echten Leben entstehen mitDie Natur hat die unter Situationen, die von moralisch ähnlicher Relevanz sind. Menschheit unter die Politiker beispielsweise sind gezwungen im Gesundheitswesen viele Entscheidungen über die Verwendung öffentlicher Gelder Herrschaft zweier souve- zu treffen und Prioritäten zu setzen, die den Tod unschuldiger räner Gebieter – Leid und Menschen verursachen. Sofern die Gesamtsumme des menschFreude – gestellt. Es ist lichen Wohlergehens als Normwert anerkannt ist, so wie es die an ihnen aufzuzeigen, Utilitaristen vorschlagen, scheint Aussicht darauf zu bestehen, was wir tun sollen, wie derlei Entscheidungen auf einer rationalen Ebene zu treffen und auch zu bestimmen, was auch zu rechtfertigen. Den klassischen Ansatz des Utilitarismus hat dessen Begrünwir tun werden. der Jeremy Bentham im 18. Jahrhundert formuliert. Für BentJeremy Bentham, 1789 ham selbst bestand „Nutzen“ einzig und allein in Freude und





Zeitleiste Spätes 18. Jh. Bentham legt die Grundlagen für den klassischen Utilitarismus

Utilitarismus

Die Erfahrungsmaschine Im Jahre 1974 ersann der US-amerikanische Philosoph Robert Nozick ein Gedankenexperiment, das die Kernaussage des Utilitarismus infrage stellt: Man stelle sich eine Erfahrungsmaschine vor, an die man sich anschließen lassen könnte, um dort alle Erfahrungen zu machen, die man gerne machen möchte. Einmal angeschlossen, würden Sie gar nicht mehr wissen, dass Sie angeschlossen sind. Sie würden denken alles sei real, alles geschehe tatsächlich. Sie haben die einmalige Chance, ihr wirkliches Leben voll absehbarer Fehlschläge und Enttäuschungen einzutauschen gegen ein simuliertes Dasein in ungetrübten Freuden, in dem sich alle Ziele und alle Wünsche erfüllen werden. „Also, was ist?“, fragt Nozick. „Würden Sie sich anschließen lassen? Was könnte uns anderes wichtig sein, als wie sich unser Leben von innen her anfühlt?“

Und er gibt sogleich die Antwort darauf: „Ziemlich viel!“ Trotz der offensichtlichen Vorzüge eines Lebens in der Erfahrungsmaschine, würde die Mehrheit sich, wie Nozick meint, nicht für ein Leben in der Maschine entscheiden. Wichtig ist uns die Wirklichkeit des Lebens, seine Echtheit; wir wollen die Dinge selbst in die Hand nehmen, auch wenn sie nicht nur von Lust und Freude begleitet sind. Doch wäre die Freude der einzige Parameter, der für unser Wohlbefinden ausschlaggebend ist, die alleinige Komponente eines schönen Lebens, dann würde die Wahl wohl anders ausfallen. Es muss daher, so schließt Nozick, noch andere Dinge geben, die wir, abgesehen von der Freude, als in sich wertvoll erachten. Falls Nozicks Intuitionen fundiert sind, müsste der Utilitarismus, zumindest in seinem klassischen Ansatz, falsch sein.

Glück der Menschen. „Handle so, dass das größtmögliche Maß an Glück entsteht!“ – so die griffige Formel seiner Theorie des richtigen Handelns. Bentham selbst lag sehr daran, mit seiner Theorie eine rationale und wissenschaftliche Grundlage für moralische und soziale Entscheidungsfindungen zu liefern. Er wollte sich damit bewusst abheben von den wirren intuitiven Ethiken, auf denen die sogenannten „Naturrechte“ des Menschen und das „natürliche Recht“ gegründet waren. Um eine solche rationale Grundlage zu schaffen, ersann Bentham den Hedonistischen Kalkül (das „Nutzenkalkül“), eine Art Glücksrechnung, nach der die Größen von Freude und Schmerz, die eine Handlung erzeugt, gemessen und verglichen werden können; richtiges Handeln in einem gegebenen Fall lässt sich damit durch eine einfache Addition (von Glück) und Subtraktion (von Leid) bestimmen.

1861

1974

J. S. Mill verteidigt und erweitert in seinem Werk Der Utilitarismus Benthams Theorie

Nozicks Erfahrungsmaschine stellt den Kerngedanken des Utilitarismus infrage

49

50

Philosophie

„Lieber ein unglücklicher Sokrates …“ Zeitgenössische Kritiker kreideten Bentham vor allem an, ein sehr enges moralisches Konzept gefasst zu haben. Mit der Annahme, dass das Leben keinem höheren Zweck als der Lust und Freude diene, habe er alle anderen Dinge wie Wissen, Ehre oder Erfolg, die wir normalerweise als in sich wertvoll erachten würden, schlichtweg außen vor gelassen. Dies sei, wie es bei seinem jüngeren utilitaristischen Zeitgenossen J. S. Mill zu lesen steht, „eine Doktrin, die zu befolgen allenfalls einem Schwein angemessen sei“. Bentham selbst, ein schroffer Verfechter des Egalitarismus und von den groben Mängeln seiner Theorie völlig ungerührt, schmettert den Vorwurf kurzerhand ab: „Ein Kinderspiel ist genauso gut wie die Künste und Der klassische Utilitarist Wissenschaften der Musik und Poesie.“ Mit anderen Worten: betrachtet eine Handlung Wenn ein populäres Spiel eine größere Gesamtsumme an Glück als richtig, wenn sie hervorbringt, ist es von größerem Wert als das verfeinerte Stre(ebensoviel oder mehr ben des Intellekts. Mill war von Benthams spontaner Retourkutsche ganz und Zuwachs an) Glück (für gar nicht angetan. Um die Vorwürfe der Kritiker abzuwenden, alle Betroffenen) produziert änderte er das Verfahren zur Bemessung von Freude (oder Leid) (als jede andere Hand- ab und fügte den beiden von Bentham vorgegebenen Variablen, lung), und als falsch, wenn nämlich Dauer und Intensität, eine dritte hinzu. Er erweiterte sie das nicht tut. den bislang quantitativen Nutzenbegriff um die Variable der J. S. Mill, 1859 Qualität und führte damit eine Hierarchie der höheren und niederen Freuden ein. Gemäß dieser Unterscheidung sind einige Freuden (intellektuelle oder künstlerische) naturgemäß von höherem Wert als die körperlichen. Die unterschiedliche Gewichtung der verschiedenen Arten von Freuden veranlasst Mill zu dem berühmten Satz: „Lieber ein unglücklicher Sokrates, als ein zufrieden gestelltes Schwein.“ Doch diese kleine Korrektur hat ihren Preis. Die frappierende Einfachheit, die nicht zuletzt den Reiz von Benthams „Nutzenkalkül“ ausgemacht hatte, war damit dahin. Aber das war noch das Allerwenigste. Weit schwerer wog Mills Idee der verschiedenen Arten von Freuden, denn sie machte ein weiteres Kriterium nötig, um dieselben unterscheiden zu können. Doch wenn irgendeine andere Komponente als die der Freude in Mills utilitaristischer Idee eine Rolle spielt, ist es fraglich, ob seine Theorie überhaupt noch utilitaristisch im strengen Sinne ist.





Utilitarismus heute Der klassische Utilitarismus von Bentham und Mill wurde inzwischen in vielfältiger Weise abgeändert. Der Kerngedanke allerdings ist heute so einflussreich wie eh und je. Die verschiedenen Varianten stimmen im Großen und Ganzen überein, dass das menschliche Glück nicht von der Freude allein abhängig ist, sondern von der Erfüllung einer breiten Palette an Wünschen und Vorlieben. Uneins allerdings ist man sich in der Frage, wie der Utilitarismus auf Handlungen angewendet werden soll. Im direkten oder Handlungsutilitarismus wird die ein-

Utilitarismus

Über den Ruf der Pflicht hinaus Eine oft gehörte Kritik am Utilitarismus ist die, dass er schlicht zu anspruchsvoll sei. Mal angenommen, Sie beschließen, den Großteil Ihres Geldes an Arme zu geben. Andere mögen ob Ihrer Großzügigkeit beeindruckt sein, sich wohl aber kaum verpflichtet fühlen, Ihrem Beispiel zu folgen. Aus utilitaristischer Sicht fragt sich aber, wie es sein kann, dass eine so derart freigebige Handlung nicht eingefordert wird, wo sie doch dem allgemeinen Nutzen dient (was sie sehr wahrscheinlich tut). Einige radikale Utilitaristen nehmen die Konsequenzen ihrer Theorie voll und ganz an und geben den Rat, dass wir unsere Lebensweise entsprechend ändern sollten. Doch solche extremen Vorschläge laufen dem Kern der ge-

wöhnlichen Moralität zuwider und degradieren uns fast alle zu moralischen Versagern. Außerordentliche Handlungen, Handlungen von erstaunlicher Tapferkeit oder Freigebigkeit, gehören normalerweise in die Domäne der Helden und Heiligen: der Menschen, die ein persönliches Gefühl für Pflicht haben, ein Gefühl für das, was für sie richtig ist zu tun – ohne irgendeine Erwartung, dass andere ihrem Beispiel folgen. Doch die meisten Formen des Utilitarismus sind strikt unpersönlich ausgelegt und neigen dazu, die Bedeutung persönlicher Ziele und Verpflichtungen eines Handelnden sowie dessen Sinn für die eigene moralische Integrität zu gering zu bewerten.

zelne Handlung direkt nach dem Nutzen ihrer Folgen bewertet. Im Regelutilitarismus hingegen ist die Beurteilung der einzelnen Handlung von ihrer Übereinstimmung mit Handlungsregeln abhängig, die, sofern sie allgemein befolgt werden, nutzbringende Folgen haben. Zum Beispiel kann das Töten eines unschuldigen Menschen unter bestimmten Umständen dazu führen, dass viele andere Leben gerettet werden und so den allgemeinen Nutzen steigern – nach dem Handlungsutilitarismus die richtige Handlungsweise. Als eine Regel jedoch mindert die Tötungshandlung den Nutzen. Die gleiche Handlung ist nach dem Regelutilitarismus also falsch, selbst wenn sie in einem Einzelfall nutzbringende Folgen hat.

Worum geht Das Prinzip des es größten Glücks

51

52

Philosophie

13 Existenzialismus „Für gewöhnlich verbirgt sich die Existenz … Sie ist da, um uns, in uns, sie ist wir, man kann keine zwei Worte sagen, ohne von ihr zu sprechen, und, letzten Endes, berührt man sie nicht … Wenn man mich gefragt hätte, was die Existenz sei, hätte ich in gutem Glauben geantwortet, dass das nichts sei, nichts weiter als eine leere Form, die von außen zu den Dingen hinzuträte, ohne etwas an ihrer Natur zu ändern. Und dann, plötzlich: auf einmal war es da, es war klar wie das Licht: die Existenz hatte sich plötzlich enthüllt. Sie hatte ihre Harmlosigkeit einer abstrakten Kategorie verloren: sie war der eigentliche Teig der Dinge, … die Verschiedenartigkeit der Dinge, ihre Individualität waren nur Schein, Firnis. Diese Firnis war geschmolzen, zurück blieben monströse und wabbelige Massen, ungeordnet – nackt, von einer erschreckenden und obszönen Nacktheit.“ Gegen Ende des Romans Der Ekel (1938) von Jean-Paul Sartre durchlebt der Hauptprotagonist Antoine Roquentin eine schreckliche Epiphanie, als er schließlich die Ursache seines Ekels entdeckt, die „süßliche Übelkeit“‚ die ihn durch den Kontakt mit allen und allem um ihn herum befallen hatte. Unter dem falschen Schein – den Farben, Geschmäckern und Gerüchen – kam die rohe, undifferenzierte Masse des Daseins hervor, und Roquentin ist erschrocken und überwältigt von der groben Tatsache der Existenz. Eine aufgeblähte, süßliche, abscheuerregende Existenz – „es gab noch und noch davon … das stieg bis zum Himmel, das lief überallhin aus, das erfüllte alles … eine Fülle, die der Mensch nicht verlassen kann.“ Von Wut und Ekel gepackt angesichts ihrer schieren Größe, schreit Roquentin: „Was für eine Sauerei! Was für eine Sauerei“, und er schüttelt sich, „um diese schmierige Sauerei loszuwerden, aber sie hielt, und es gab so viel davon, Tonnen um Tonnen von Existenz, unbegrenzt“. Im Kern der existenzialistischen Sicht liegt die Angst, die durch die Last der bloßen physischen Existenz ausgelöst wird. Für den bekanntesten Vertreter des Existenzialismus, den französischen Intellektuellen Sartre, ist die Existenz eine fühlbare Tatsache, sie „ist nichts, was man aus der Entfernung denken kann: das muss dich plötzlich überfluten, das lastet schwer auf deinem Herzen wie ein großes unbeweg-

Zeitleiste 1840er

1880er–1890er

Kierkegaards Schriften sprechen viele der grundlegenden Fragen des Existenzialismus an

Der Übermensch, Nietzsches Ideal, gedeiht in existenzieller Freiheit

Existenzialismus

53

tes Tier – sonst ist da gar nichts.“ Doch während die Existenz süßlich und erdrückend ist, so ist sie doch auch recht kontingent, eine grundlose, zufällige Angelegenheit: Man existiert zwar, könnte aber genausogut auch nicht existieren – das eigene Dasein ist purer Zufall. Sartres Ansicht nach gibt es keinen Gott, der eine Erklärung oder einen Grund für unsere Existenz liefert; ebenso wenig wie es einen vorgegebenen Sinn des Lebens gibt. Dem Universum sind unsere Bestrebungen und Ziele egal, was wiederum der Grund für eine unausweichliche existenzielle Angst ist. Aber genau diese Tatsache verleiht uns auch eine Freiheit – die Freiheit, eigene Entscheidungen zu treffen. Und diese Freiheit erlegt uns die Verantwortung auf, diese Welt aktiv mitzugestalten, Projekte zu übernehmen und Verpflichtungen einzugehen, die alleine eine Bedeutung für uns erzeugen können. „Zur Freiheit verurteilt“ sind somit wir allein verantwortlich, unserem Leben einen Sinn zu verleihen und unser Leben nach den von uns getroffeDer Mensch ist zur nen Entscheidungen zu bestätigen.



Freiheit verdammt, da er, einmal in die Welt geworfen, für alles verantwortlich ist, was er tut. Jean-Paul Sartre, 1946

Die Wurzeln des Existenzialismus Der Existenzialismus war stets genauso sehr eine Stimmung, eine Geisteshaltung, wie eine Philosophie im strengen Sinne, und ist bis heute ein loses Bündel diverser Ideen und Konzepte. Der gemeinsame emotionale Nenner im Kern dieser Philosophie rührt teils aus der Erkenntnis der Zwecklosigkeit, der „Absurdität“ des menschlichen Daseins, insofern als dass wir, Zufallsprodukte ohne Sinn und Zweck, hineingestoßen sind in eine gleichgültige Welt, die selbst wiederum jenseits aller rationalen Erklärungen liegt. Existenzielle Grübeleien fügen sich vollkommen ein in Stimmungen der Verzweiflung und Angst, wie sie die Jahrzehnte nach dem Zweiten Weltkrieg prägten, und gelten allgemein als ein (hauptsächliches) Phänomen des 20. Jahrhunderts. Verstärkt wurde diese Wahrnehmung durch die Figur Sartres selbst, der (zusammen mit dem französischen Schriftsteller Albert Camus) zum bekanntesten Gesicht des Existenzialismus wurde. Sartres geistige und literarische Fähigkeiten fügten sich perfekt ineinander, um einer Bewegung Ausdruck zu verleihen, welche die konventionellen Grenzen zwischen akademischer Welt und Populärkultur überbrücken. Trotz der populären Einschätzung wurde ein Großteil des theoretischen Rahmenwerks für den Existenzialismus von dem deutschen Philosophen Martin Heidegger gestaltet, bei dem Sartre in den 1930er Jahren studiert hatte. Heidegger selbst – eine höchst umstrittene Figur, der sich durch seine Verstrickungen in das nationalsozialistische Regime einen zweifelhaften Ruf zuzog – verdankt den Intellektuellen des



1927

1938

1942

1943

Sein und Zeit von Heidegger fasziniert spätere Existenzialisten

Der Ekel von Sartre

Der Mythos des Sisyphos erforscht die Lehre des Absurden

Das Sein und das Nichts, Sartres bedeutendstes philosophisches Werk, wird veröffentlicht

54

Philosophie vorangegangenen Jahrhunderts sehr viel, insbesondere dem dänischen Denker Søren Kierkegaard. Dass das menschliche Leben nur aus der Perspektive der Ersten Person des „ethisch existierenden Subjekts“ heraus verstanden werden könne, hat Kierkegaard als Erster beharrlich dargelegt. Und er war auch der Erste, der den Begriff der „Existenz“ mit einer reichen Vielfalt an Bedeutungen erfüllte, die eine unverwechselbare menschliche Daseinsform bezeichnen. Existenz als „reales Subjekt“ ist für Kierkegaard nichts Selbstverständliches, sie ist vielmehr eine Errungenschaft, denn es ist ganz unmöglich, „ohne Leidenschaft zu existieren“; unser volles Leistungsvermögen als Einzelperson zu erkennen mit einem echten Gefühl für die eigene Identität, verlangt den aktiven Einsatz des Willens: eine Pflicht, Entscheidungen zu treffen, die langfristige Interessen aufbauen Demgemäß ist die und unserem Leben einen ethischen Rahmen setzen. Letztlich Angst jener Schwindel aber, so Kierkegaard, ist die wichtigste Pflicht der „Sprung in der Freiheit, der auf- den Glauben“, durch den wir eine Beziehung mit Gott eingehen.



kommt, wenn … die Freiheit nun hinunter in ihre eigene Möglichkeit schaut und dann die Endlichkeit ergreift, um sich daran zu halten. Søren Kierkegaard, 1848

Die Existenz geht der Essenz voraus Kierkegaard war auch der Erste, der die Angst oder „Furcht“ feststellt, die verursacht wird durch unser Bewusstsein von der Unbeständigkeit und dem Unvorgesehenen des Schicksals, und die uns (nach Kierkegaard) letztlich antreibt, in ein existenzielles Verhältnis zu Gott zu treten und uns für eine „Christus ähnliche“ Lebensführung zu entscheiden. Ähnliche Überlegungen, verbunden mit einer entschiedenen Absage an Gott, veranlassten Friedrich Nietzsche, den idealisierten Übermenschen zu rühmen, der in einer solchen existenziellen Freiheit schwelgt, und nicht in der Furcht. Heidegger folgt Kierkegaard insofern er sein Augenmerk auf die reiche Fülle und beschwerte Tatsache der Existenz richtet als die charakteristische Eigenschaft menschlichen Lebens, eine Seinsform, die er Dasein nennt. Konkrete Sorge bezüglich der Natur unserer eigenen Existenz sind unumgänglich, denn der Mensch ist, wie Heidegger es in einem berühmten Ausspruch formuliert, das einzige Wesen, dem es um das Sein geht. Wie Kierkegaard, so benutzt auch Heidegger den Begriff der „Angst“, um die Furcht zu beschreiben, die wir erfahren, wenn wir uns bewusst darüber werden, dass wir selbst Verantwortung tragen für unseren eigenen Lebensentwurf. In welcher Weise wir uns dieser Verantwortung stellen, bestimmt Form und Fülle unseres Lebens. Heideggers zentrale Erkenntnis ist die, dass es keine festgelegte Essenz gibt, die dem menschlichen Leben, jenseits der Ziele, denen wir uns aktiv verschreiben, eine Form gibt, und die unserem Dasein Gehalt verleiht. Dieser Gedanke kommt in einem berühmten Satz der Existenzialisten prägnant auf den Punkt: „Die Existenz geht der Essenz voraus.“ Bei Sartre heißt es entsprechend, dass wir sind, was wir uns entscheiden zu sein, oder anders gesagt, dass wir das Ergebnis all der bedeutsa-



Existenzialismus

Das Absurde Im Mittelpunkt der existenzialistischen Sicht auf das Menschsein steht der Begriff der Absurdität. Das Universum ist irrational insofern, als dass es keine rationale Erklärung für es gibt, und auch keinen Gott, der es lenkt und leitet. Demgemäß kommt aller Sinn, alle Bedeutung des menschlichen Daseins von innen, verliehen von uns Menschen selbst. Die bloße Tatsache der Existenz ist zufällig und an sich sinnlos, „absurd“ (im existenzialistischen Sinn). Albert Camus fasst dieses existenzialistische Dilemma in seinem Essay Der Mythos des Sisyphos (1942) wie folgt zusammen: „An diesem Punkt seiner Bemühungen steht der Mensch vor dem Irrationalen. Er fühlt in sich

sein Verlangen nach Glück und Vernunft. Das Absurde entsteht aus dieser Gegenüberstellung des Menschen, der fragt, und der Welt, die vernunftwidrig schweigt.“ In die Welt geworfen ohne Führung oder Bestimmung von außen, ist es die Pflicht eines Jeden, sich selbst auf Sinnsuche zu begeben, indem er Werte wie Freiheit und schöpferische Kraft bejaht. Dieses unterschwellige Gefühl von Verunsicherung und Verlorenheit in einem düster bedrohlichen Universum liefert den Hintergrund für das „absurde Theater“, in dem Samuel Beckett, Jean Genet und andere experimentieren mit neuen Erzählformen, mit einem oftmals skurrilen Gebrauch der Sprache und mit der Stille.

men Entscheidungen sind, die wir für uns allein treffen. Wir schaffen eine Essenz für uns selbst und verleihen unserem Leben so auch selbst einen Sinn. In diesem Zusammenhang führt Sartre den Begriff der „Unaufrichtigkeit“ ein, um die Art von Existenz zu beschreiben, die all jene führen, die ihre Verantwortung nicht erkennen, ihre Freiheit zu nutzen und ihr Leben selbst zu formen, indem sie ihre eigene Essenz schaffen. Diese Menschen leben, wie Heidegger es formuliert, „uneigentlich“ – sie lassen ihr Leben verstreichen, ohne ihr mögliches Potential auszuschöpfen und leben somit ein Leben, das sinn- und zweckentleert ist und alles entbehrt, was unverwechselbar menschlich ist.

Worumes geht Zur Freiheit verdammt

55

56

Religion

14 Das Böse Schlechte Menschen tun schlechte Dinge – und wenn diese Menschen und ihre Taten schlecht genug sind, mögen wir sie „böse“ nennen. Gemein, sündhaft, verwerflich – das sind nur weitere drei der vielen Begriffe, mit denen sich böse Handlungen beschreiben lassen, und allesamt deuten sie darauf, dass eine moralische Grenze überschritten wurde. Doch trägt der Begriff „böse“ in sich eine sehr spezielle und ausgeprägte Bedeutung, eine Art metaphysisches Gepäck, das sich über lange Jahre im Zusammenhang mit Religion angesammelt hat. Das Böse, verstanden als das große Gegenteil des moralisch Guten, ist aufs Engste verbunden mit der Idee der Sünde, der Übertretung des göttlichen Gesetzes. Das implizierte Vergehen gegen Gott (oder Götter) wird häufig personifiziert in einer Teufelsgestalt (oder Teufelsgestalten). In der christlichen Tradition beispielsweise ist Satan die höchste Personifikation des Bösen, der Erzfeind Gottes, dessen Dämonen von den Menschen Besitz ergreifen, um böse Werke verschiedenster Art durch sie zu verrichten.

Was macht das Böse böse? Es scheint ganz so, als hielte die enge Verbindung zwischen dem Bösen und der Sünde auch gleich die Antwort parat auf die Frage, was das Böse ist – als helfe sie, Böses zu identifizieren. Irgendetwas ist gemäß dieser Sicht falsch, und zwar einfach deshalb, weil es ein Vergehen gegen Gottes Gesetz darstellt: Moral basiert auf den göttlichen Geboten. Gut ist gut, und Böse ist böse aus dem einfachen Grund, weil Gott befohlen hat, dass dem so sei. Und weil das Wort Gottes in der Bibel und anderen heiligen Texten bewahrt ist, haben wir eine detaillierte Aufstellung über all das, was Gott gefällt, beziehungsweise nicht gefällt, und demzufolge eine maßgebende Quelle hinsichtlich dessen, was wir tun und was wir nicht tun sollen. Eine solche Darstellung von Moral, von Gut und Böse, wurde durch alle Zeiten hindurch meist fraglos hingenommen. Nichtsdestotrotz sind mit dieser Sicht erhebliche Schwierigkeiten verknüpft. Zunächst einmal gibt es das alte Problem, dass die verschiedenen religiösen Texte, durch die Gott seinen Willen den Menschen kundtut, viele widersprüchliche und/oder unattraktive Botschaften enthalten. Und diesen den Menschen bekannten göttlichen Willen als Grundlage zu verwenden, um darauf

Zeitleiste 4. Jh. v. Chr. Platon entwickelt das „Euthyphron-Dilemma“

Das Böse

Ist es Pech, (moralisch) schlecht zu sein? Ist das Böse, das wir Menschen und ihren Handlungen zuschreiben, einfach nur abhängig von Glück (oder Pech)? Die guten oder schlechten Seiten unseres Charakters können nur dann zutage treten, wenn die Umstände entsprechend sind: Wir alle sind von „zufälligen Umständen“

abhängig. Klar, würden wir von uns sagen, dass wir nie und nimmer einen brutalen Naziaufseher in Auschwitz abgegeben hätten, aber sicher wissen können wir das natürlich nicht. Wir können nur von Glück sagen, nie in die Situation geraten zu sein, es herausfinden zu müssen.

ein akzeptables und in sich schlüssiges Moralsystem zu errichten, ist allemal eine Herausforderung. Ein zweites Problem, das die Glaubwürdigkeit der göttlichen Autorität in Zweifel zieht, wurde erstmals von Platon vor ungefähr 2 400 Jahren in seinem Dialog Euthyphron aufgeworfen. Angenommen, Gut und Böse basieren auf dem, was Gott gefällt beziehungsweise missfällt. Ist das Böse also böse, weil es Gott missfällt? Oder missfällt es Gott, weil es böse ist? Sollte erstere Annahme zutreffen, dann könnten Gottes Vorlieben ohne Weiteres auch ganz anders ausfallen – es könnte sein, dass ihm, sagen wir mal, Völkermord gefiele, und wenn dem so sei, dann wäre Völkermord eine gute Sache, und insoweit wäre Moral kaum mehr als blinder Gehorsam gegenüber einer willkürlichen Autorität. Sollte letztere Annahme zutreffen (wenn Gott das Böse missfällt, weil es böse ist), dann wäre die Tatsache, dass das Böse böse ist, eindeutig unabhängig von Gott. In diesem Falle wäre Gott schlicht und ergreifend überflüssig. In Fragen der Moral ist Gott also entweder willkürlich oder bedeutungslos – ein doch unglückliches Fazit für all jene, die Moral gerne auf diese Weise begründen würden.



Das Böse kann weder ausgerottet werden – es muß ja doch immer einen Gegensatz zum Guten geben –, und es kann auch nicht bei den Göttern seinen Sitz haben. Platon, 4. Jh. v. Chr.



Das Problem des Bösen Damit ergeben sich Fragen nach der Grundlegung von Gut und Böse sowie Gottes Beziehung dazu. Das „Problem des Bösen“, die Schwierigkeit, die Existenz des Bösen in der Welt mit der Existenz Gottes, so wie

5. Jh. n. Chr.

13. Jh.

Gott sei vollkommen, lasse aber Böses zu, argumentiert der Hl. Augustinus

Thomas von Aquin liefert die bestimmende mittelalterliche Betrachtung des Bösen

57

58

Religion sie üblicherweise begriffen wird, zu vereinbaren, stellt dabei möglicherweise eine noch härtere Herausforderung dar. Hungersnöte, Morde, Erdbeben, Seuchen – Katastrophen, die Millionen von Menschen die Zukunft zerstören, Jung und Alt sinnlos und qualvoll dahinraffen, Kinder verwaist und hilflos zurücklassen – die Welt ist ganz offenkundig voll des Bösen. Könnte man all dieses Elend mit einem einzigen Fingerschnippen beenden, wohl jeder mit einigermaßen Herz und Verstand würde es tun. Doch es soll ein Wesen geben, dem dies im Nu gelingen könnte, ein Wesen, dessen Macht, Wissen und moralische Güte keine Grenzen kennt: Gott. Das Böse ist überall. Aber wie kann es Seite an Seite existieren mit einem Gott, der per Definition über die Macht und Fähigkeit verfügt, allem Bösen ein Ende zu bereiten? Das „Problem des Bösen“ entsteht demnach als direkte Konsequenz jener Eigenschaften, die Gott von Gläubigen üblicherweise beigemessen werden. Und die sehen folgendermaßen aus. Gott ist … 1. allwissend: Er (oder sie oder es) weiß alles. 2. allmächtig: Er ist fähig, alles zu tun. 3. allgütig: Er lässt nach seinem Willen nur Gutes walten. Aus diesen drei grundlegenden Eigenschaften scheinen sich folgende Schlüsse zu ergeben: Er ist sich all des Elends und Leids dieser Welt vollauf bewusst; er ist fähig, alles Elend und Leid zu verhüten; es ist sein Wunsch und Wille, Elend und Leid zu verhüten. Aber dies widerspricht glattweg der Realität des Bösen in der Welt. Sofern wir also nicht einfach leugnen, dass die Welt voll des Bösen ist, müssen wir schließen, dass Gott entweder nicht existiert, oder dass er nicht über eine oder mehrere der genannten Eigenschaften verfügt: dass er nicht um alles weiß, was in der Welt geschieht, sich nicht darum kümmert oder er nichts dagegen zu machen vermag. Lässt sich nach all dem überhaupt erklären, wie das Böse und Gott (mit all seinen unberührten Eigenschaften) de facto nebeneinander existieren können? Üblicherweise wird behauptet, dass es „moralisch hinreichende Gründe“ gibt, warum Gott nicht immer beschließen mag, Leid und Schmerz aus der Welt zu schaffen, während er gleichzeitig ein allgütiges Wesen bleibt. In gewissem Sinne und auf lange Sicht sei es in unser aller Interesse und gut für uns, dass Gott Böses in der Welt geschehen lässt. Aber was genau steht uns an Besserem zu erwarten, das uns den Preis der menschlichen Not kostet? Die wahrscheinlich schlagkräftigste Replik auf das „Problem des Bösen“ ist die sogenannte „Verteidigung der Willensfreiheit“ (freewill defence). Danach ist das Leid der Preis, den wir bezahlen müssen (und der es wert ist) für die Freiheit, über unsere Handlungen selbst entscheiden zu können (siehe Kasten). Eine weitere wichtige Idee ist die, dass wahre moralische Eigenschaften und Tugenden auf dem Amboss des menschlichen Leids geschmiedet wer-

Das Böse

Die Verteidigung der Willensfreiheit Das allgegenwärtige Böse in der Welt stellt für die theistische Idee von der Existenz eines allmächtigen, allwissenden und allgütigen Gottes, die wohl schwerste Herausforderung dar. Die historisch bekannteste und einflussreichste Antwort auf diese Herausforderung – die zeigen soll, dass es tatsächlich hinreichende Gründe gibt, warum ein moralisch vollkommener Gott beschließen könnte, das Böse in der Welt zuzulassen, – ist die sogenannte Verteidigung der Willensfreiheit (freewill defence). Der freie menschliche Wille ist eine göttliche Gabe von enormem Wert. Die Freiheit, echte Entscheidungen treffen zu können, ermöglicht es uns, ein Leben von wahrem moralischem Wert zu leben und in eine tiefe, von Liebe und Vertrauen geprägte Beziehung mit Gott zu treten. Aber Gott hätte uns diese Gabe nicht verleihen können, ohne nicht gleichzeitig zu riskieren, dass wir sie missbrauchen, dass wir unsere Freiheit missbrauchen, um falsche Entscheidungen zu treffen – ein Risi-

ko, dass es nach dieser Darstellung offenbar wert ist, und ein Preis, der sich lohnt. Doch Gott hätte die Möglichkeit der moralischen Falschheit nicht beseitigen können, ohne uns damit einer ungleich größeren Gabe zu berauben – der Fähigkeit zu moralischer Größe. Das vielleicht offensichtlichste Problem für diese Verteidigungsstrategie ist die Existenz des natürlich Bösen in der Welt. Selbst wenn wir gelten lassen, dass der freie Wille ein so wertvolles Gut ist, dass es den Preis des moralisch Bösen wert ist – welches entsteht, wenn der Mensch seine Freiheit für falsche Entscheidungen nutzt –, stellt sich immer noch die Frage, welchen möglichen Sinn das natürlich Böse haben soll? Inwiefern würde Gott unseren freien Willen untergraben oder schmälern, wenn er den HIVVirus, Hämorrhoiden, Moskitos, Überschwemmungen und Erdbeben auf einen Schlag ausmerzen würde?

den: Nur indem er Not und Leid überwindet, den Unterdrückten zur Seite steht und sich den Tyrannen widersetzt usw., kann der wahre Held oder Heilige erstrahlen. Doch derlei Argumente wirken schnell flach, wenn sie die willkürliche Verteilung und das schiere Ausmaß des menschlichen Wenn alles Böse Leids zu erklären versuchen. Nicht nur scheint unfassbares Leid abgewendet würde, das Maß zu übersteigen, das für die moralische Charakterbilwürde dem Universum dung nötig wäre. Es scheint obendrein, als laste der überwieviel Gutes fehlen. gende Teil davon auf den Unschuldigen, während die „Bösen“ ungeschoren davonkommen. Thomas von Aquin, um 1265





geht IstWorum das Böse es gut für uns?

59

60

Religion

15 Schicksal Die Vorstellung, dass es eine Macht oder ein Prinzip gibt, wonach der künftige Gang der Ereignisse vorherbestimmt oder im Vorhinein „vorgezeichnet“ ist, hat die menschliche Fantasie schon immer stark angeregt. Oft personifiziert als eine Art göttliche oder übernatürliche Instanz wird das Schicksal für gewöhnlich gesehen als eine unerbittliche und unabwendbare Macht: „Den Willigen führt das Schicksal, den Unwilligen schleppt es fort“, heißt es bei Kleanthes, dem griechischen Philosophen der Stoa. Gleichzeitig ist es eine Macht, die wahllos ist und keine Rücksicht nimmt auf Rang oder Stand: „… wenn das Schicksal ruft, müssen Monarchen folgen“, schrieb der englische Dichter John Dryden. Dass die Zukunft festgelegt ist, ihr Pfad fixiert, und es kein Entrinnen gibt, ist eine noch immer tief verwurzelte Vorstellung, die sich jedoch schwer in Einklang bringen lässt mit gewissen anderen Annahmen unseres alltäglichen Denkens. Normalerweise gehen wir davon aus, dass wir, wenn wir etwas tun, dies aus freien Stücken tun. Meine Entscheidung, das eine lieber zu tun als das andere, ist eine echte Wahl zwischen wirklich bestehenden Optionen. Doch wenn mein Leben von Geburt an vorgezeichnet ist, vielleicht sogar vom Anbeginn der Zeit an, wie kann dann irgendetwas, das ich tue, meine wahrhaft freie Entscheidung sein? Und wenn bereits all meine zukünftigen Entscheidungen in Stein gemeißelt sind, wie kann man mich dann für sie verantwortlich machen? Wenn der freie Wille eine Illusion ist, dann scheint meine Stellung als moralisch verantwortlich Handelnder in Zweifel. Ehre und Schuld scheinen keinen Platz zu haben in einer Welt, in der die eiserne Hand des Schicksals regiert.

Griechen und Römer über das Schicksal Von frühesten Zeiten an spielt die Vorstellung, dass das Schicksal eines Menschen von Geburt an bestimmt sei, im allgemeinen und religiösen Denken der alten Griechen eine wichtige Rolle. Das griechische Wort für Schicksal, moira, was so viel bedeutet wie „Anteil“ oder „Los“, bezieht sich insbesondere auf das bedeutsamste Los, das uns zugeteilt oder zugemessen ist – die Lebenszeit selbst.

Zeitleiste ca.

700 v. Chr.

Der griechische Dichter Hesiod beschreibt die drei Schicksalsgöttinnen (oder Moiren)

ca.

300 v. Chr.

Zenon, gefolgt von Kleanthes, gründet die Schule der Stoa in Athen

ca.

100 n. Chr.

Epiktet, der einflussreichste der späteren Stoiker, wirkt in Rom

Schicksal

61

Wissenschaft: Die unwahrscheinliche Verbündete des Schicksals Oberflächlich betrachtet, könnte man meinen, dass die moderne Wissenschaft eine unwahrscheinliche Verbündete sei für eine so althergebrachte, primitiv erscheinende Idee wie die vom Schicksal. In Wirklichkeit aber legt das mechanistische Universum, das nach Newton mit der Gleichmäßigkeit eines Uhrwerks funktioniert, ein deterministisches Verständnis nahe. Danach laufen alle Ereignisse im Kosmos, einschließlich aller Handlungen und Entscheidungen, die wir gemeinhin als Produkt des freien Willens erachten, nach feststehenden Gesetzen ab. Kurz gesagt, der Determinismus geht davon aus, dass jedes Ereignis eine ihm vorausgehende Ursache hat. Jeder Zustand ist bedingt und determiniert durch einen vorangegangenen Zustand, welcher wiederum selbst das Ergebnis einer Folge weiterer vorangegangener Zustände ist. Diese Abfolge der Ereignisse kann zurückgeführt werden bis zum Anbeginn der Zeit, was vermittelt, dass die Geschichte des Universums im Moment seiner Anfänge festgesetzt wurde. Der wissenschaftliche Determinismus scheint somit die Idee von einem im Vorhinein festgelegten Schicksal zu stützen, mithin die Idee der Willensfreiheit zu bedrohen und damit auch unsere Stellung als moralisch verantwortbare Akteure.

Nach der Position der sogenannten „starken“ Deterministen ist der Determinismus wahr und mit der Willensfreiheit unvereinbar. Unsere Handlungen, so glauben sie, sind ursächlich determiniert und die Idee eines freien Willens in dem Sinne, dass wir auch anders hätten handeln können, ist illusorisch. Nach der Position der „schwachen“ Deterministen ist der Determinismus zwar wahr, mit dem freien Willen aber vereinbar. Die Tatsache, dass wir anders gehandelt hätten, wenn wir uns anders entschieden hätten, liefert eine befriedigende und hinreichende Idee von der Handlungsfreiheit. Dass eine Entscheidung ursächlich determiniert ist, spielt keine Rolle; wichtig ist nur, dass sie nicht unter Zwang oder entgegen unserem Wollen erfolgt ist. Und schließlich gibt es noch die Position der Libertarianer, die dem Determinismus eine Absage erteilen. Sie sind der Meinung, dass es Willensfreiheit gibt und unsere Handlungen und Entscheidungen nicht determiniert sind. Das Problem der Libertarianer besteht in der Frage, wie eine Handlung indeterminiert sein kann – insbesondere, wie ein unverursachtes Ereignis nicht zufällig sein kann? Denn Zufälligkeit wäre der Idee der moralischen Verantwortung nicht minder schädlich als der Determinismus.

frühes 5. Jh.

16. Jh.

1682

1687

Augustinus sagt, das Seelenheil beruht auf Gottes Gnaden, nicht auf irdischem Verdienst

Johannes Calvin betont die Wichtigkeit der göttlichen Vorsehung für die Errettung der Seelen

Der englische Dichter John Dryden sinniert über die wahllose Natur des Schicksals

Die mechanistische Weltsicht Newtons deutet auf ein deterministisches Universum hin

62

Religion

Que sera sera „Was auch immer sein wird, wird sein …“ – so kann eine Reaktion auf das Schicksal ausfallen: das menschliche Handeln ist angesichts des Schicksals unwirksam, und insofern könnten wir uns einfach zurücklehnen und es ergeben hinnehmen. Der Fehler in dieser fatalistischen Sicht besteht darin, dass ein Nichthandeln, weil „das Kartenblatt bereits ausgeteilt ist“, eine höchst plausible Alternative ignoriert – nämlich die, dass man mit seinem Handeln ein „schlechtes Blatt“ auch abwenden könnte. Der englische

Schriftsteller G. K. Chesterton bringt diesen Denkfehler in einem Aufsatz von 1928 prägnant auf den Punkt: „Ich glaube nicht an ein Schicksal, welches die Menschen unabhängig von ihren Handlungen ereilt. Ich glaube eher an ein Schicksal, welches die Menschen ereilt, wenn sie nicht handeln.“ In diesem Sinne müssen wir unser Schicksal in die eigenen Hände nehmen, anstatt uns von den Winden des Schicksals umhertreiben zu lassen.

Der epische Dichter Hesiod, der um 700 v. Chr. gewirkt hat, war die erste Autorität, von dem bekannt ist, dass er die Schicksalsgöttinnen, oder Moiren, als bejahrte Spinnerinnen dargestellt hat, die bei der Geburt eines Menschen den Schicksalsfaden spinnen. Klotho, die Spinnerin, spinnt den Lebensfaden, Lachesis, die Zuteilerin, bemisst den Faden, bis Atropos, die Unabwendbare, ihn mit ihrer Schere durchschneidet, um den Zeitpunkt des Todes zu bestimmen. Die Moiren wurden in die römische Mythologie vollständig als die drei Parzen aufgenommen. Die römischen Parzen waren ursprünglich Was dein Schicksal ist, Geburtsgöttinnen mit den Namen Nona, Decima und Morta. Sie hat Gott dir auf die Stirn werden auch Fata genannt, was aus dem lateinischen Wort für geschrieben „sprechen“ abgeleitet ist und impliziert, dass das Schicksal eiKoran, 7. Jh. n. Chr. nes Menschen den unabwendbaren Beschlüssen oder Verkündigungen der Götter unterworfen ist. In der Philosophie der Antike ist das Prinzip des Schicksals ein zentrales Merkmal der Stoiker, dessen Gründer, Zenon, um 300 v. Chr. eine eigene philosophische Schule in Athen begründete, die Stoa. Die Grundlehre, auf der die stoische Philosophie aufbaut, ist die Idee, dass die Natur – d. h. das gesamte Universum – durchwirkt wird vom logos, was unterschiedlich ausgelegt wurde als „Gott“ (im Sinne einer kosmischen Macht), göttliche Vernunft, Vorsehung oder Schicksal. Die wesentliche Aufgabe des weisen Menschen besteht darin, zu unterscheiden, was in seiner eigenen Macht liegt und daher gemeistert werden kann; und zu erkennen, was jenseits davon liegt und daher mit Stärke und Fassung zu tragen und zu akzeptieren ist. Die zuletzt genannte Einstellung, die unter dem Begriff amor fati bekannt ist („Liebe zum Schicksal“), als vorbehaltlose Bejahung des Schicksals, wurde allmählich zur wesentlichsten Tugend der Stoiker. Epiktet, der





Schicksal gegen Ende des ersten Jahrhunderts n. Chr. als griechischer Sklave nach Rom kam, fasst diese einprägsam zusammen: Denk daran, daß du Schauspieler in einem Drama bist, ganz nach der Art, wie der Theaterleiter es will. Ist deine Rolle kurz, mußt du eine kurze, ist sie lang, mußt du eine lange Rolle spielen. Will er, daß du einen Bettler darstellen sollst, mußt du auch diese Rolle gekonnt spielen. Ebenso, wenn du einen Lahmen, einen Herrscher oder einen einfachen Mann darstellen sollst. Deine Aufgabe ist es, die dir zugeteilte Rolle gut zu spielen. Sie auszuwählen, ist Sache eines anderen.

Freier Wille und Vorsehung Die Folgen der Idee, dass zukünftige Ereignisse in irgendeiner Weise vorherbestimmt sind, haben innerhalb etlicher Religionen zu ernsten Kontroversen geführt. Im Christentum versteht man unter der Allwissenheit, die Gott für gewöhnlich zugeschrieben wird, dass Gott alles weiß, auch das, was in der Zukunft geschehen wird. Aus seiner Schicksal: eines TyranPerspektive also ist die Geschichte des Universums im Vorhinen Ermächtigung zu nein festgelegt. Doch wie kann Gottes Vorherwissen vereinbart werden mit dem freien Willen, diesem angeblich göttlichen Ge- Verbrechen, eines Narren schenk, das dem Menschen gegeben ist und ihm ermöglicht, ein Ausrede für Versagen. Leben von wahrem moralischem Wert zu leben? Die MöglichAmbrose Bierce, Des Teufels keit zum moralisch Guten öffnet auch die Tür zum moralisch Wörterbuch, 1911 Bösen – ohne einen freien Willen wäre das Konzept der Sünde





bedeutungslos. Und eben diese Möglichkeit zur Sünde – die Gott in seiner Allmacht hätte verhindern können, so er gewollt hätte –, wird für gewöhnlich angeführt, um das Dasein des Bösen in der Welt zu erklären. Nach Ansicht einiger christlicher Theologen ist das bloße Vorherwissen all dessen, was in der Zukunft geschehen wird, unzureichend für einen Gott, der mit aller Vollkommenheit ausgestattet ist. Seine Erhabenheit nimmt nicht nur für sich in Anspruch, dass er die Geschicke allen Lebens vorhersieht, sondern auch, dass er diese eigens bestimmt. Nach der Doktrin der göttlichen Vorsehung, die insbesondere verbunden ist mit Augustinus von Hippo und Johannes Calvin, bestimmt Gott nicht nur das Schicksal des Universums durch alle Zeit und allen Raum, zu oder vor der Zeit, da er es geschaffen hat; zugleich verfügt er, dass bestimmte Seelen errettet und andere (was weit umstrittener ist) verdammt würden. Somit ist befohlen, dass jede Handlung und jede Entscheidung eines Menschen gemäß dem göttlichen Wunsch geschieht, was aber zugleich bedeutet, dass jegliche Handlung und Entscheidung keinen Einfluss haben kann auf die Bestimmung der Seele eines Menschen, dessen Schicksal bereits entschieden ist.

Worum Die eiserne Handes desgeht Schicksals

63

64

Religion

16 Seele Heute wie zu allen Zeiten glauben hunderte von Millionen von Menschen, dass es so etwas wie eine Seele oder Seelen gibt. Christen, Juden, Muslime, Hindus, Sikhs, Taoisten, Jainas – ganz zu schweigen von den antiken Kulturen der Ägypter, Griechen, Römer, Chinesen und unzähligen anderen, lebendigen und toten – bekennen sich zum Glauben an irgendeine Art von Seelen: vernunftmäßige Seelen, kosmische oder universelle Weltenseelen, zweigliedrige oder dreigliedrige Seelen, unsterbliche Seelen und Seelen, die mit dem Körper vergehen … Doch trotz dieser enormen historischen Einigkeit über die unumstrittene Tatsache, dass diese übersinnlichen Dinge existieren müssen, herrscht so gut wie keine Einigung darüber, was sie sind, was sie ausmacht, in welcher Art Beziehung sie zum Körper stehen und was als Beweis für ihre Existenz gelten könnte. Die Seele, so beteuert Baha’u’llah, der Gründer der Bahá’í-Religion, „ist ein Zeichen Gottes, ein himmlischer Edelstein, dessen Wirklichkeit die gelehrtesten Menschen nicht zu begreifen vermögen, und dessen Geheimnis kein noch so scharfer Verstand je zu enträtseln hoffen kann.“ Und in den Hindu-Upanischaden heißt es: „Sie ist das Allem innewohnende Selbst. Doch man kann Sie nicht kennen. Sie ist stets die Eine, deren Sitz alle Körper sind …“ Die Seele ist etwas Geheimnisvolles, etwas Unfassbares, etwas Unergründliches, etwas, durch das wir teilhaben am Wesen Gottes/der Götter (oder auch nicht), etwas, das uns ewiges Leben gewährt (oder auch nicht). Trotz der verwirrenden Vielzahl von Theorien, die über die Natur der Seele vorgebracht wurden, gibt es einen gemeinsamen Nenner. Teilweise darüber definiert,



Er aber, der Atman [die Seele], ist nicht so und ist nicht so. Er ist ungreifbar, denn er wird nicht gegriffen; unzerstörbar, denn er wird nicht zerstört; unhaftbar, denn es haftet nichts an ihm; er ist nicht gebunden, er wankt nicht, er leidet keinen Schaden! Brihadaranyaka-Upanischad



Zeitleiste 4. Jh. v. Chr.

1640er

Platon argumentiert, dass Seelen unsterblich und überweltlich sind. Die Vorstellung von Seele als einer vom Körper getrennten Substanz ist laut Aristoteles Unsinn

Von Descartes stammt die klassische Schilderung des Substanzdualismus

Seele was sie nicht ist, nämlich ein materieller Körper, wird die Seele bestimmt als das immaterielle Wesen des Menschen. Sie ist das lebendige Prinzip, das den Körper belebt und körperliche Vorgänge leitet, das dem Menschen seine Identität verleiht und bewirkt, dass diese Identität durch die Zeit hindurch beständig bleibt. Die Seele ist der bewusste Teil des Menschen, der Sitz des menschlichen Willens, der Vernunft und des Verstandes und deckt sich daher mit dem Geist und dem Ich. Viele Religionen gehen davon aus, dass die Seele außerhalb des Körpers bestehen, den Tod ihres Körpers überleben könne, folglich unsterblich sei und verschiedenen Arten von göttlicher Belohnung oder Strafe unterliege.

Das Gespenst in der Maschine Die Vorstellung, dass Leib und Seele wesensmäßig verschieden seien, was den meisten religiösen Traditionen gemein und auch im christlichen Glaube erkennbar ist, reißt eine tiefe Kluft zwischen den beiden. Diese Kluft lässt sich zurückverfolgen bis zu den alten Griechen (wenn nicht gar

Das flüchtige Selbst Richten Sie all Ihre Aufmerksamkeit nach innen und versuchen Sie einmal Ihr „Ich“, Ihr „Selbst“ zu finden. Doch egal, wie sehr Sie sich anstrengen, Sie werden immer nur auf eine ständige Abfolge von individuellen Gedanken, Erinnerungen und Erfahrungen stoßen, nie auf das „Selbst“, auf das „Ich“, das vermeintliche Subjekt dieser Gedanken (etc.). Es mag ganz natürlich scheinen, sich vorzustellen, dass es so etwas wie ein wesenhaftes Selbst gäbe, ein Selbst, das wir als unseren Wesenskern erachten. Doch nach Auffassung des schottischen Philosophen David Hume ist dies ein Irrtum. Laut Hume gibt es kein „wesenhaftes Etwas“, das wir finden könnten; wir seien „nichts als ein Bündel oder eine Sammlung von verschiedenen Vorstellungen …, die mit unbe-

greiflicher Schnelligkeit auf einander folgen…“ Es ist so, als würde man ein Foto betrachten und erwarten, den Beobachtungspunkt des Fotografen zu sehen. Der ist zwar unerlässlich, um der Ansicht auf dem Foto einen Sinn zu geben, ist aber auf dem Foto selbst nie auszumachen. Auf die gleiche Weise ist das „Selbst“ nie mehr als nur der Beobachtungspunkt, der unsere Gedanken und Erfahrungen in einen Zusammenhang stellt und ihnen einen Sinn verleiht. Es ist nie selbst in den Erfahrungen gegeben. Die vergebliche Suche nach dem eigentlichen und so schwer fassbaren inneren Selbst ist einer der zentralen psychologischen Beweggründe für den ewigen Glauben der Menschen an eine Seele.

1674–1675

1739–1740

1949

Malebranche argumentiert, dass das Zusammenspiel von Leib und Seele seine kausale Ursache in Gott hat

Das identische Selbst ist nach Hume ein bloßes „Bündel von Vorstellungen“

Gilbert Ryle karikiert den KörperGeist-Dualismus als „Gespenst in der Maschine“

65

66

Religion weiter), bis zu Platon, der wiederholt argumentierte, dass die Seele unsterblich sei. Er postuliert ein „Reich des Seins“, in dem vollkommene, unwandelbare Entitäten (Ideen) beheimatet sind, die nur von der Seele erkannt werden können. Dieses Bild einer göttlich inspirierten Seele, die zeitweilig in einem niederen, erdgebundenen Körper gefangen ist, hat sich im frühchristlichen Verständnis tief eingeprägt. Augustinus von Hippo beispielsweise begriff die Seele als „eine geistige (…), vernunftbegabte und den Körper regierende Substanz“. Die Idee, dass Leib und Seele wesensmäßig verschieden, zwei eigenständige Substanzen seien (was als „Substanzdualismus“ bezeichnet wird), wurde in der westlichen Philosophie vor allem von dem französischen Philosophen René Descartes im 17. Jahrhundert vorangetrieben. Indem er Geist und Seele synonym gebraucht, begreift Descartes den Geist als eine mentale Entität, als eine immaterielle Substanz, deren wesentliche Natur das Denken ist. Alles andere ist Materie (oder materielle Substanz), deren definierendes Merkmal die räumliche Ausdehnung ist (d. h. sie füllt den physikalischen Raum aus). Das Bild von einem immateriellen Geist oder einer Seele, die uns innewohnt und in irgendeiner Form die Hebel des materiellen Körpers zieht, bespöttelt der britische Philosoph Gilbert Ryle im berühmten Dogma vom „Gespenst in der Maschine“ in seinem Werk Der Begriff des Geistes (The Concept of Mind 1949).

Eine unüberwindbare Kluft? Das große Problem für das von Descartes gezeichnete Bild, besteht darin, dass er eine Kluft reißt, die unüberwindbar scheint, indem er Körper und Seele als zwei wesensmäßig verschiedene Substanzen begreift. Das Bild setzt voraus (wie wir erwarten würden), dass Körper und Seele in einem Wechselspiel stehen – das Gespenst zieht die Hebel der Maschine. Doch wenn diese beiden Substanzen völlig verschieden sind, wie ist ein solches Wechselspiel dann überhaupt denkbar? Wie können mentale Ereignisse körperliche Zustände und Ereignisse beeinflussen oder ursächlich an ihnen beteiligt sein? So betrachtet, ist der Cartesische Dualismus eine Facette eines allgemeineren philosophischen Rätsels: des sogenannten Leib-Seele-Problems. Wir alle sind uns unmittelbar unseres eigenen Bewusstseins bewusst. Wir haben Gedanken, Gefühle und Wünsche, die sehr subjektiv und persönlich sind und auf die wir eine einzigartige und individuelle Perspektive haben. Im Gegensatz dazu ist die Wissenschaft streng objektiv und jederzeit überprüfbar. Wie also kann etwas so Seltsames wie das Bewusstsein auf be-



So laßt uns denn, überzeugt durch das, was wir gesagt haben, an dem Glauben festhalten, daß die Seele unsterblich und für die Aufnahme aller Übel und aller Güter empfänglich sei. Laßt uns daher den Weg zum Himmel hinanstreben, und uns der Gerechtigkeit und Weisheit aus allen Kräften befleißigen (…) Platon, Der Staat, 4. Jh. v. Chr.



Seele greifbare Weise in der physikalischen Welt der Wissenschaft existieren? Und wie wollen wir darin den Ort der Seele finden, den vermuteten Sitz des Bewusstseins? Aristoteles erkannte die Gefahren, die Platons strikte Teilung von Leib und Seele birgt. Er behauptet, die Seele sei die Essenz des Menschlichen, und es mache daher keinen Sinn, sie vom Körper zu trennen. Man dürfe nicht fragen, so Aristoteles, „ob die Seele und der Körper eines sind, wie man ja auch nicht fragt, ob das Wachs und seine Gestalt und überhaupt die Materie von jedem und das, wovon sie die Materie ist, eines sind“. Descartes selbst erkannte das Problem zwar, räumte ein, dass für notwendige, kausale Zusammenhänge das Eingreifen Gottes erforderlich sei, aber trug selbst kaum zur Lösung des Problems bei. Und so war es an seinen unmittelbaren Nachfolgern, wie etwa Nicolas Malebranche, sich mit dem Kausalitätsproblem auseinanderzusetzen und eine Antwort auf das Leib-Seele-Problem zu finden. Diese fiel mit dem sogenannten „Okkasionalismus“ allerdings wenig überzeugend aus und hat die Schwere des Problems, das zu beheben er angetreten war, einmal mehr unterstrichen. Die Philosophen der neueren Zeit haben sich mehrheitlich darauf verlegt, das Problem des Cartesischen Dualismus zu lösen, indem sie ihn leugnen und schlicht von der Existenz nur einer Substanz ausgehen. Ganz allgemein hängen sie einer physikalischen Erklärung an: Da der Gegenstand der Wissenschaft ausschließlich physikalischer Natur ist, müsse auch der Geist und das Bewusstsein physikalischer Natur und entsprechend wissenschaftlich erklärbar sein. Und in einem solchen Bild ist wenig Platz für eine Seele.

Worum es geht „… dessen Geheimnis kein noch so scharfer Verstand je zu enträtseln hoffen kann.“

67

68

Religion

17 Glaube „Es ist das Herz, das Gott fühlt, und nicht der Verstand. Das aber ist der Glaube: Gott im Herzen spüren und nicht in der Vernunft.“ So formuliert Blaise Pascal – zukunftsweisender Wissenschaftler und frommer Christ gleichermaßen – in seinen Pensées (1670) das verwirrende Verhältnis von Glaube und Vernunft. Nach Pascal steht die Macht des Glaubens der Macht der Vernunft nicht entgegen; sie sind von verschiedener Art und haben verschiedene Gegenstände: „Der Glaube sagt wohl das, was die Sinne nicht sagen, aber nicht das Gegenteil von dem, was sie sagen. Er ist über ihnen und nicht gegen sie.“ Gläubige richten ihre religiöse Überzeugung nicht nach rationalen Begründungen und lassen sich durch sie auch nicht von ihrem Glauben abbringen. Die bloße Annahme, vernunftmäßige Anstrengungen könnten Gottes Zwecke transparent oder für uns begreiflich machen, ist in ihren Augen pure Arroganz. Jene, die den Glauben über die Vernunft erheben, die sogenannten „Fideisten“, sehen darin einen alternativen Pfad zur Wahrheit und im Falle des religiösen Glaubens den rechten Weg schlechthin. Die religiöse Überzeugung, die letztlich durch Gottes Einflussnahme auf die Seele erlangt wird, verlangt einen freiwilligen und bewussten Willensakt seitens des Gläubigen: Glaube verlangt einen Sprung, aber es ist kein Sprung ins Dunkle. „Wo der Verstand versagt, dort besteht das Glaubensgebäude. Der Lohn für unseren Glauben wird sein, dass wir schauen, was wir glauben“, heißt es bei Augustinus von Hippo. Einmal überzeugt von den unüberwindlichen Gegensätzen zwischen Glaube und Vernunft nehmen sowohl Gegner wie Befürworter des Glaubens mitunter extreme Positionen ein. Martin Luther, Vater des Protestantismus, vertritt die Ansicht, dass der Glaube „alle Vernunft, alle Einsicht, allen Verstand niedertrampeln müsse“; die



Vernunft ist der Seele linke Hand, Glaube der Seele rechte Hand. Durch diese beiden erlangen wir Göttlichkeit. John Donne, 1633



Zeitleiste frühes

5. Jh.

Augustinus erläutert die Natur des Glaubens

1540er

1670

Martin Luther erhebt den Glauben über die Vernunft (die „Hure des Teufels“)

Blaise Pascal stellt in seinen posthum veröffentlichten Pensées Betrachtungen über den Glauben an

Glaube Vernunft war für ihn der „ärgste Feind“ des Glaubens, die „Hure des Teufels“, die in allen Christen getilgt werden müsse. Rationalisten und Skeptiker weigern sich dagegen, den religiösen Glauben von einer systematischen, auf Empirie beruhenden Beurteilung auszunehmen, die sie sonst auf jeden anderen Bereich von beanspruchtem Wissen anwenden; sie prüfen mögliche Beweise und kommen auf dieser Basis dann zu einem Schluss. Doch auch die Feinde der Religion sind nicht minder gemäßigt in ihren Äußerungen. „Der Glaube ist eines der großen Übel der Welt, vergleichbar dem Pockenvirus, nur schwerer auszurotten“, wettert Richard Dawkins, Meinungsführer der Anti-God Squad (einer Organisation gegen den Glauben an einen Gott).



Wir sprechen nicht von Glauben, dass zwei plus zwei gleich vier ist … Von Glauben sprechen wir nur, wenn wir die Gewißheit durch das Gefühl ersetzen wollen. Die Ersetzung der Gewißheit durch das Gefühl führt leicht zu Auseinandersetzungen, da verschiedene Gruppen unterschiedliche Gefühle als Ersatz nehmen. Bertrand Russell, 1958



Abraham und Isaak Die unüberbrückbare Kluft zwischen Glaube und Vernunft veranschaulicht die biblische Geschichte von Abraham und Isaak sehr schön. Abraham, dessen bedingungsloser Gehorsam gegenüber Gottes Geboten sogar soweit geht, den eigenen Sohn zu opfern, wird als archetypisches und paradigmatisches Beispiel des religiösen Glaubens hochgehalten. Vom religiösen Kontext gelöst und rational betrachtet, erscheint Abrahams

Verhalten jedoch völlig gestört. Jede Alternative in dieser Situation wäre allemal besser und glaubhafter gewesen als die, die er gewählt hat (bin ich irre/habe ich mich verhört/will Gott mich prüfen/ist der Teufel in Gottes Gewand am Werk/kann ich das schriftlich haben?). Abrahams Verhalten ist dem rational geneigten Nichtgläubigen schlicht und einfach schleierhaft.

1748

1859

1997

David Hume postuliert, der Glaube an Wunder sei wider die Vernunft

John Stuart Mill rühmt in seinem Werk Über die Freiheit die Freiheit der Gedanken

Richard Dawkins vergleicht den Glauben mit dem Pockenvirus

69

70

Religion



Der Glaube besteht darin, zu glauben, auch jenseits aller Vernunft. Voltaire, 1764



Glaubensbilanz Die Fideisten kehren ihre Ansicht, dass religiöser Glaube keiner rationalen Begründung fähig ist, in eine positive Aussage: Wenn ein (vollständig) rationaler Weg offen stünde, bräuchte es keinen Glauben. Da aber die Vernunft versagt, eine Rechtfertigung zu liefern, springt der Glaube ein, diese Lücke zu füllen. Der dazu notwendige Willensakt auf Seiten des Gläubigen fügt der Aneignung des Glaubens einen moralischen Wert hinzu. Und eine religiöse Hingabe, die ihren Sinn nicht in Frage stellt, wird zumindest von jenen, die sie teilen, als aufrichtige Frömmigkeit geehrt. Der Glaube hat durchaus seinen Reiz: Er verleiht dem Leben einen klaren Sinn; er spendet Trost in Zeiten der Kümmernis und gibt die feste Hoffnung auf ein besseres Leben nach dem Tod und so fort. Der religiöse Glaube bedient allerhand menschliche Grundbedürfnisse und Ängste. Viele werden durch ihn geläutert und gar zu besseren Menschen, indem sie eine religiöse Lebensweise annehmen. Gleichzeitig haben religiöse Symbole sowie Prunk und Zier nahezu unbegrenzte künstlerische Inspiration und kulturelle Bereicherung geliefert. Viele der Punkte, die Fideisten als Plus für den Glauben verbuchen würden, stellen die atheistischen Philosophen auf die Minus-Seite. Zu den kostbarsten Grundsätzen des säkularen Liberalismus, der mit J. S. Mill seinen wohl einflussreichsten Vertreter hat, zählen die Freiheit der Gedanken und die Meinungsfreiheit, was sich nur schlecht verträgt mit kritikloser Hinnahme, wie sie von frommen Gläubigen gepflegt und besungen wird. Blinde Hingabe, vom Fideisten hoch geschätzt, hat für den Nichtgläubigen leicht etwas von naiver Vertrauensseligkeit und Aberglaube. Bereitwillige Akzeptanz von Autorität kann dazu führen, skrupellosen Sekten oder kultischen Gemeinschaften zu verfallen, was mitunter in Fanatismus und Zelotismus umschlagen kann. Seinen Glauben in Andere zu setzen, ist dann bewundernswürdig, wenn diese Anderen selbst bewundernswürdig sind. Doch wenn die Vernunft außen vor bleibt, ist allen Arten von Ausschweifungen schnell Tür und Tor geöffnet. Es ist wohl kaum zu leugnen, dass zu bestimmten Zeiten, in bestimmten Religionen die Vernunft durch Intoleranz, Bigotterie, Fanatismus, Sexismus und Schlimmeres ersetzt worden ist. In einer Bilanz müssen immer beide Seiten betrachtet werden, Plus und Minus, und oft erscheint ein Aktivposten auf der einen Seite als Passivposten auf der anderen. Insoweit unterschiedliche Abrechnungsmethoden gebraucht werden, bleibt die Abrechnung selbst sinn- und zwecklos. Und genau diesem Eindruck kann man sich nur schwer erwehren, wenn Gläubige und Nichtgläubige miteinander diskutieren.

Glaube Meist reden sie aneinander vorbei, schaffen es nicht, eine gemeinsame Gesprächsbasis zu finden und nähern sich einander keinen Millimeter an. Gegner des Glaubens ergehen sich zu ihrer eigenen Befriedigung darin zu beweisen, dass Glaube irrational sei. Die Gläubigen hingegen befinden solch vermeintliche Beweise als irrelevant und am Thema vorbei. Glaube ist letztendlich irrational (nicht rational); er setzt sich stolz und trotzig in Opposition zur Vernunft – und in gewissem Sinne ist genau das der springende Punkt.

Hume über Wunder Ein sicheres Zeichen von Glauben ist die Willigkeit zu glauben, dass Gott in der Lage ist, Dinge zu tun (und wirklich getan hat), die den Gesetzen der Natur trotzen – dass Gott Wunder vollbringen kann. Wunder sind Ereignisse, die rationale Erwartungen verwirren, weshalb sie seit eh und je für philosophische Grabenkämpfe zwischen Glaube und Vernunft sorgen. Dass der Glaube an Wunder wider die Vernunft ist, thematisiert der schottische Philosoph David Hume im 18. Jahrhundert in einem berühmten Argument. Ein solcher Glaube müsse sich auf eine wie auch immer geartete Autorität stützen, sei es auf die Beweiskraft der eigenen Sinne oder auf die eines Anderen. Aber „kein Zeugnis genügt“, so Hume, „um ein

Wunder zu konstatieren, es sei denn das Zeugnis sei solcher Art, daß seine Falschheit wunderbarer wäre, als die Tatsache die es zu konstatieren trachtet.“ Mit anderen Worten, es sei stets vernünftiger, das „größere Wunder“ (die Verletzung von Naturgesetzen) abzulehnen und davon auszugehen, dass der Zeugenbericht falsch sei (infolge von Irreführung, Illusion etc.) Hume schließt mit den Worten, „daß die christliche Religion nicht nur in der ersten Zeit von Wundern begleitet war, sondern sogar heutigentags von keinem vernünftigen Menschen ohne Annahme eines Wunders geglaubt werden kann.“ Doch wie wir gesehen haben, betrachten es die Gläubigen nicht immer als angebracht, vernünftig zu sein.

Worum es geht Glaube, der blind ist gegen jede Vernunft

71

72

Religion

18 Fundamentalismus Nach den Terrorangriffen vom 11. September auf New York und Washington rollte eine Welle nie dagewesener Islamfeindlichkeit über die USA. Im Hinblick auf die wachsende Stimmung von Angst und Misstrauen, in der die Begriffe „Fundamentalist“ und „Terrorist“ so gut wie austauschbar wurden, erklärte Präsident George W. Bush einen „Krieg gegen den Terror“, der nicht enden würde „bis jede terroristische Gruppe von globaler Reichweite gefunden, gestoppt und geschlagen ist“. Die ungehemmte Dämonisierung des islamischen Fundamentalismus, die damit begonnen hatte, war in ihrer Intensität völlig neu, und die Bezeichnung „Fundamentalist“ fortan ein Schimpfwort. Im nachfolgenden Konflikt sah sich die einzige überlebende Supermacht der Welt, der selbsterklärte Hüter der Freiheit und Demokratie, einem Feind gegenüber, den man weithin als fanatisch und fremd wahrnahm. Ironischerweise jedoch war eben dieser Präsident, der Oberbefehlshaber eines Krieges der Zivilisation gegen den Fundamentalismus war, auch Regierungschef eines Landes mit der mächtigsten fundamentalistischen Lobby der Welt. Bush war in ganz wesentlichen Hinsichten selbst ein Fundamentalist. „Wirf ein Ei aus dem Fenster eines Pullman, und du triffst fast überall im Land einen Fundamentalisten.“ Was der Satiriker H. L. Mencken für das Amerika der 1920er Jahre zur Geburt des Protestantischen Fundamentalismus formuliert hat, galt ebenso im ersten Jahrzehnt des 21. Jahrhunderts. 1990 hatte Reverend Pat Robertson, Multimillionär, Fernsehprediger und Gründer der ultrarechten Christlichen Koalition, verkündet: „Wir haben genug Stimmen, um dieses Land zu regieren.“ Keine hohle Prahlerei, zumal es sich kein Präsidentschaftskandidat leisten könnte, die religiöse Rechte zu verlieren oder deren erzkonservative Agenda unberücksichtigt zu lassen. Und so zog im September 2001 eine dem christlichen Fundamentalismus hörige Supermacht in den Krieg gegen die schwer fassbaren und kaum definierbaren Truppen des muslimischen Fundamentalismus.

Zeitleiste frühes 20. Jh.

1920

1960er

Beginn des Protestantischen Fundamentalismus in den USA

C. L. Laws prägt den Begriff „Fundamentalist“

Evangelikale Radiostationen verbreiten sich in den USA

Fundamentalismus Die Schlacht für die Religion Heute wird der Begriff „Fundamentalismus“ für ein breites Spektrum religiöser und anderer Ideologien und Orthodoxien gebraucht, weshalb es schwer ist, die definierenden Merkmale klar zu bestimmen. Nichtsdestotrotz bleibt der amerikanische christliche Fundamentalismus – die Bewegung, in der der Begriff seinen Ursprung hat – eine der kompromisslosesten und sehr stark ideologisch gelenkten Erscheinungsformen des Phänomens. Die reaktionäre Bewegung, die unter den evangelikalen Protestanten in den USA zu Beginn des 20. Jahrhunderts entstand, war anfänglich angetrieben von Empörung und Abscheu gegenüber den reformerischen Tendenzen der ‚liberalen‘ Theologen. Diese Modernisierer suchten die Bibel und die Wunder des Evangeliums symbolisch und metaphorisch auszulegen, und zwar so, dass sie besser in den Rahmen sozialer, kultureller und wissenschaftlicher Entwicklungen jüngeren Datums passten. In Reaktion auf derartige Zugeständnisse bezüglich der Lehrmeinung, die den Kern der göttlichen Offenbarung zu bedrohen schienen, schwangen sich führende konservative Theologen als Verfechter gewisser „fundamentaler Glaubenssätze“ auf, da-

Des Teufels gutes Werk Die fundamentalistischen Bewegungen zeigen häufig eine Ambivalenz angesichts der Moderne, unschlüssig, ob sie sich ihren Freveln entziehen oder ihnen nachgehen sollen, um sie mitsamt Wurzeln auszureißen. Nirgendwo tritt diese Ambivalenz deutlicher zutage als in der zerquälten Beziehung zur modernen Technologie. Die christlichen Fundamentalisten der USA verurteilen viele Aspekte der Wissenschaft und Technologie als Teufelswerk, legen aber nichtsdestotrotz einen beachtlichen Einfallsreichtum an den Tag, sich technische Produkte für eigene Zwecke zunutze zu machen, um etwa mit religiösen Radio- und Fernsehsendungen landesweit ein breites Publikum zu erreichen und Unsummen an Geldern anzuhäufen.

Mitte der 1990er Jahre, während des äußerst repressiven Taliban-Regimes in Afghanistan, waren bizarre Bilder zu sehen von fundamental-islamistischen Talibans, die sich über Mobiltelefon koordinierten, um die afghanische Gesellschaft zurück ins Steinzeitalter zu befördern. Und seit Ende 2001, nachdem die Taliban gestürzt und AlQaida aus den afghanischen Hochburgen zurückgedrängt worden war, vollzogen die Taliban einen höchst effektiven Übergang in den modernen Cyberspace. Plötzlich waren die Soldaten des Islam neben Kalaschnikows auch mit Laptops bewaffnet und Internet-Cafés wurden zu logistischen Planungszentren des anti-westlichen Dschihad.

frühe 1990er

Mitte 1990er

September 2001

Beginn der gewaltsamen ProLife-Bewegung (Abtreibungsgegner in den USA)

Taliban ergreifen Kontrolle über Afghanistan

Mit den Terrorangriffen vom 11. September beginnt der „Krieg gegen den Terror“

73

74

Religion runter die jungfräuliche Geburt, die körperliche Auferstehung Jesu, die strenge Wahrhaftigkeit der Wunder und die buchstäbliche Wahrheit (Irrtumsfreiheit) der Bibel. 1920 wendete Curtis Lee Laws, Herausgeber einer Baptistenzeitschrift, den Begriff „Fundamentalist“ zum ersten Mal auf all jene an‚ „die Der wahre Wissen- noch immer festklammern an den großen fundamentalen Glauschaftler, wie leiden- benssätzen und die Absicht haben, in die Schlacht zu ziehen“ für ihren Glauben.



schaftlich er auch ‚glauben‘ mag … weiß ganz genau, was seine Überzeugung ändern würde: Beweise! Der Fundamentalist weiß, dass nichts ihn je abbringen wird. Richard Dawkins, 2007

Himmel oder Hölle auf Erden Was alle religiösen fundamentalistischen Strömungen gemein haben, ist die Überzeugung, dass ihre Lehrmeinung die einzige und letztgültige sei, welche die grundlegende Wahrheit über Gott (oder Götter) und seine (oder ihre) Beziehung zur Menschheit beinhalte. Die jeweils heilige Schrift gilt als das buchstäbliche Wort des jeweiligen Gottes und lässt nachdrücklich keinerlei Interpretationen oder Kritiken zu. In gleicher Weise sind die moralischen Anordnungen und Vorschriften dieser Schriften strikt zu befolgen. Aus Sicht der christlichen Fundamentalisten beispielsweise ist die Schöpfungsgeschichte, wie sie in der Bibel steht, wortwörtlich wahr. Sämtliche Konzepte, die im Widerspruch damit stehen, wie die Darwin’sche Evolutionstheorie, lehnen sie rigoros ab. Der Wille Gottes, wie er in den heiligen Texten offenbart wird, bleibt somit zeitlos und unveränderlich. Und so ergibt sich als eine natürliche Begleiterscheinung



Probleme im eigenen Hinterhof Der Westen legt tendenziell eine sehr voreingenommene, einseitige Haltung gegenüber fundamentalistischen Bewegungen an den Tag. Sensationsheischende Berichte, wonach islamistische Selbstmordattentäter sich durch die verheißene Belohnung von 72 Jungfrauen im Himmel zu ihren Taten bewogen fühlen könnten, gehen einher mit entgeisterter Fassungslosigkeit, doch gleichermaßen schwere Auswüchse im eigenen Land rufen weit weniger Schrecken hervor und bisweilen gar eine gewisse Sympathie. Von außen betrachtet, gibt es keinen großen Unterschied zwischen einem von himmlischen Jungfrauen inspirierten Selbstmordattentäter und einem fundamentalistischen Fanatiker wie Paul Hill, der als Mit-

glied der extremen Army of God (Armee Gottes), die sich als militante Hüter des ungeborenen Lebens versteht, 1994 in Florida einen Abtreibungsarzt und eine Klinikdelegation niedergeschossen hat. „Im Himmel erwartet mich eine große Belohnung … ich freue mich auf den glorreichen Ruhm“, verkündete er in einer Erklärung vor seiner Exekution 2003. Die Forschung jedoch kommt zu dem Ergebnis, dass die meisten Selbstmordattentäter weniger durch religiöse Dogmatiken motiviert sind als vielmehr durch sehr weltliche wirtschaftliche, soziale oder politische Missstände. Insofern mögen die Fundamentalisten der USA, was den rein religiös inspirierten Fanatismus angeht, bisweilen die Nase vorn haben.

Fundamentalismus zum Fundamentalismus ein extremer Konservatismus. Die bedingungslose Bekenntnis zu feststehenden Traditionen geht häufig einher mit dem Verlangen, einen vermeintlich besseren früheren Zustand wiederherstellen zu wollen, zumeist eine imaginierte und idealisierte Vergangenheit. In allen Formen des Fundamentalismus führt ein derart utopischer Traditionalismus zu einer Ablehnung der Kräfte des Wandels, insbesondere des Säkularisierungsprozesses, der die westliche Welt seit der Aufklärung geprägt hat. Hand in Hand mit dem religiösen Konservatismus geht Fundamentalisten sind der soziale und moralische Konservatismus. Die meisten nicht Freunde der Demokratie der sozialen und politischen Rechte, die man in der westli… Jede fundamentalistische chen Welt im Laufe der vergangenen drei Jahrhunderte Bewegung, die ich im Judenhart errungen hat, werden von Fundamentalisten aller tum, Christentum und Islam Couleur kategorisch abgelehnt. Der Glaube an eine absolute, biblisch festgeschriebene Autorität impliziert einen studiert habe, ist auf einer unumstößlichen Dogmatismus der Lehre. Aus fundamentiefen, irrationalen Ebene talistischer Sicht sind Anschauungen und Meinungen, die überzeugt, dass eine säkulare, von der eigenen abweichen, daher schlichtweg falsch, und liberale Gesellschaft die hochgeschätzte Ideen des westlichen Liberalismus – wie kulturelle und religiöse Toleranz oder Pluralismus – gera- Religion auslöschen will. dezu Fluch und Gräuel. Freie Meinungsäußerung, Gleich- Karen Armstrong, 2002 stellung der Geschlechter, Schwulenrechte oder Abtreibung werden rundweg verdammt. Wie tief solche Überzeugungen gehen, hat Jerry Falwell, US-amerikanischer Fundamentalist und Gründer der Moral Majority, eindrücklich gezeigt, als er unmittelbar nach den Anschlägen vom 11. September wetterte, die „Heiden, Abtreibungsbefürworter, Feministen, Schwule und Lesben … und all jene, die versucht haben, Amerika zu säkularisieren“, seien mit Schuld daran. Religiöse Fundamentalisten treten meist messianisch oder apokalyptisch auf, ahnen die Ankunft eines Retters und/oder das Ende der Welt. Oft verleiten sie ihre Anhänger dazu zu glauben, dass sie eine erwählte und bevorrechtete Beziehung mit Gott haben und sich aus der Gesellschaft ausnehmen können, wo Nichtgläubige und Nicht-Fundamentalisten vorübergehend die Herrschaft haben. Andere wiederum trachten nach der politischen Vorherrschaft mit dem Ziel, ein Regierungssystem zu verordnen, das geprägt ist von den eigenen Anschauungen. Die Trennung von Kirche und Staat, wie sie der westliche Säkularismus propagiert, lehnen sie strikt ab, versuchen stattdessen, die politische Landschaft zu re-sakralisieren. Elitär und autoritär versuchen die Fundamentalisten bezeichnenderweise demokratische Institutionen ins Wanken zu bringen und an ihrer Stelle eine theokratische Herrschaft zu errichten.





Worum geht wird Wenn aus Glaubees Fanatismus

75

76

Religion

19 Atheismus „Wann immer ich in ein fremdes Land reise … werde ich gefragt, welche Religion ich habe. Ich weiß dann nie, ob ich „Agnostiker“ oder „Atheist“ sagen soll … Als Philosoph, wenn ich vor einem rein philosophischen Publikum spreche, würde ich sagen, dass ich mich selbst als Agnostiker bezeichne, da ich denke, dass es kein schlüssiges Argument gibt, anhand dessen man beweisen kann, dass es Gott nicht gibt. Auf der anderen Seite würde ich mich gegenüber dem gewöhnlichen Mann auf der Straße als Atheist bezeichnen, denn wenn ich ihm sage, dass ich nicht beweisen kann, dass es Gott nicht gibt, müsste ich ihm auch erklären, dass ich genauso wenig beweisen kann, dass es die Homerischen Götter nicht gibt.“ Diese Art von Unsicherheit, die Bertrand Russell 1947 damit bekundet, hat sich auch in den Jahrzehnten danach kaum zerstreut. Was den gängigen Gebrauch der Begrifflichkeiten angeht, haben sich die Dinge seit Russell zwar etwas geändert, sind aber dennoch kaum präziser oder klarer. Der „gewöhnliche Mann auf der Straße“ verwendet den Begriff „Atheist“ heute zumeist für die, die einen positiven Standpunkt einnehmen, per se intolerant oder feindlich gegenüber Religionen sind und die Existenz eines Gottes oder mehrerer Götter explizit leugnen. Der Begriff „Agnostiker“ hingegen steht im Allgemeinen für all die, die zwischen den Stühlen sitzen, die in Sachen Religion eine neutrale, nicht festgelegte Haltung haben, da sie nicht willens oder nicht fähig sind, sich in die eine oder andere Richtung zu entscheiden. Abgesehen von diesem gängigen Gebrauch der beiden Begriffe jedoch – der erste zu eng, der zweite zu vage – verdienen die tiefer gehenden Ideen und Feinheiten, die darin enthalten sind, ein besonderes Maß an Aufmerksamkeit.



Wie? ist der Mensch nur ein Fehlgriff Gottes? Oder Gott nur ein Fehlgriff des Menschen? Friedrich Nietzsche, 1888



Zeitleiste 399 v. Chr.

1670

Sokrates wird vom athenischen Staat wegen Gottlosigkeit verurteilt und hingerichtet

Blaise Pascals berühmtes Argument vom religiösen Glauben als der besten Wette erscheint posthum in den Pensées

Atheismus Von Göttern und Teekannen Abgeleitet vom altgriechischen atheos („ohne Gott“ oder „gottlos“), bezeichnet der Begriff „Atheismus“ in seinem weitesten Sinne die Ablehnung des Theismus, des Glaubens an einen Gott oder mehrere Götter. Eine solche Ablehnung bildet mitunter etliche Formen aus, angefangen von Ungläubigkeit bis hin zur positiven Leugnung. Und genau das ist auch der Grund, der die Uneindeutigkeit in der begrifflichen Spannbreite erklärt. Es gibt Atheisten (sicherlich die Minderheit), die die Existenz eines Gottes oder mehrerer Götter explizit leugnen. Diese Überzeugung – in der Tat eine positive Lehre, die die Nicht-Existenz von Göttern behauptet – wird manchmal als „positiver“ oder „starker“ Atheismus bezeichnet. Sie muss in Form von Beweisen gestützt werden, die klar belegen, dass

Die Pascal’sche Wette Mal angenommen, uns sind die Beweise für Gottes Existenz schlicht nicht beweiskräftig genug. Was nun? Dann können wir an Gott glauben oder es bleiben lassen. Wenn wir uns entscheiden, an ihn zu glauben, und damit richtig liegen (er also existiert!), dann erlangen wir ewig währende Glückseligkeit; wenn nicht, verlieren wir nur wenig. Auf der anderen Seite, wenn wir uns entscheiden, nicht an Gott zu glauben, und damit richtig liegen (weil er nicht existiert!), verlieren wir nichts, gewinnen aber auch nicht viel dazu. Liegen wir aber falsch, dann ist unser Verlust immens – bestenfalls kommen wir nicht in den Genuss der ewigen Glückseligkeit, schlimmstenfalls erleiden wir ewige Verdammnis. Es gibt also viel zu gewinnen, und wenig zu verlieren: Schön blöd also, wer nicht auf Gottes Existenz wettet. Dieses geniale Argument für den Glauben an Gott ist als „Pascal’sche Wette“ bekannt. Der französische Mathematiker und Philosoph

Blaise Pascal hat es ersonnen und in seinen 1670 erschienenen Pensées vorgetragen. Es mag genial sein, ist aber auch fehlerhaft. Das größte Problem besteht darin, dass das Argument einen bestimmten Charakter Gottes impliziert. In einem ähnlichen Sinne wie Nietzsche, der einmal gesagt hat „Ich kann nicht an einen Gott glauben, der die ganze Zeit verehrt werden will“, könnten wir die Würdigkeit eines Gottes in Frage stellen, der sich beeindrucken lässt von den Ehrbezeigungen all jener, die kühl kalkulieren und aus Eigennutz auf Risiko spielen. Ein Gott, der unserer Ehrbezeigungen wahrhaft würdig ist, ähnelt unserem Gefühl nach eher dem, den Thomas Jefferson angedacht hatte, als er uns aufforderte: „Stelle voller Kühnheit sogar die Existenz eines Gottes infrage; denn wenn es ihn gibt, muss er der Referenz an die Vernunft mehr Zustimmung zollen als blinder Furcht.“

1843

1869

1947

Marx prangert die Religion als „Opium für das Volk“ an

Der Biologe T. H. Huxley prägt den Begriff „Agnostizismus“

Bertrand Russell fragt: „Bin ich ein Atheist oder ein Agnostiker?“

77

78

Religion es keine Götter gibt. Die Strategie solcher Beweise zielt üblicherweise darauf zu zeigen, dass die bloße Vorstellung eines überirdischen Gottes – eines transzendenten und ewigen Wesens, das Ursache seiner selbst ist und die erste Ursache alles Seienden, das das Universum aus dem Nichts erschuf und doch außerhalb desselben existiert – unstimmig oder unbegreiflich ist. Ein solches Wesen ist folglich per Definition jenseits unserer Erfahrungswelt und auch jenseits aller Erfahrungen, die wir vorstellbar haben könnten, weshalb die Rede darüber im wahrsten Sinne des Wortes Unsinn ist. Viele Atheisten wären mit dieser Art von Argumentation wohl einverstanden, auch wenn die meisten unter ihnen eher weniger ambitioniert sein mögen, was solche metaphysischen Fragen anbelangt. Während die „starken“ Atheisten vorbringen, dass es keinen Beweis für die Existenz von Göttern gebe und auch niemals geben kann, schon allein vom Grundsatz her nicht, macht die große Mehrheit den vergleichsweise bescheidenen Anspruch geltend, dass es einfach keine Beweise gibt. In einem späteren Aufsatz aus dem Jahr 1952 gebraucht Russell eine einprägsame Analogie. Er sagt, während es wohl unmöglich sei, die Behauptung zu widerlegen, dass es zwischen Erde und Mars eine Teekanne aus Porzellan gäbe, sei es in Ermangelung anders lautender Beweise trotzdem ein Zeichen von (gelinde gesagt) Exzentrizität zu glauben, dass es eine solche Teekanne gäbe. Auf die gleiche Weise bringen Vertreter des „schwachen“ Atheismus vor, dass die Beweislast ganz klar bei deAtheistische und agnostische Ursprünge Wenngleich der Begriff „Atheismus“ bis zum 16. Jahrhundert nicht belegt ist, kursieren philosophische Ideen, die man heute als atheistisch bezeichnen würde, seit der Antike. Im Griechenland des 5. Jahrhunderts äußern etliche der Gesprächspartner von Sokrates in den Platonischen Dialogen Anschauungen, die die orthodoxe Religion kritisch beleuchten, während Sokrates selbst 399 v. Chr. wegen Gottlosigkeit verurteilt und hingerichtet wird. Agnostische Sichtweisen reichen im Grunde ähnlich weit zurück, obgleich der Begriff selbst relativ neu ist. Er setzt sich zusammen aus dem altgriechischen a („nicht“ oder „ohne“) und gnosis („(Er)kenntnis“) und wurde erstmals vom englischen Biologen T. H. Huxley wahrscheinlich 1869 verwendet. Seine Sichtweise hatte sich schon sehr viel früher zu kris-

tallisieren begonnen, wie seine Kommentare in einem Brief von 1860 zum Thema persönliche Unsterblichkeit zeigen: „Ich bestätige noch leugne ich die menschliche Unsterblichkeit. Ich sehe keinen Grund, daran zu glauben, andererseits aber auch keine Möglichkeit, sie zu widerlegen.“ Karl Marx, ein berühmter Atheist, glaubte, Religion sei eine Beruhigungspille für die Masse. Sie sei eine konservative Kraft, die Kapitalisten ausnutzten, um die Arbeiterklasse versklavt zu halten; ein Schmerzmittel – deswegen „Opium“ – um die Symptome der sozialen Unterdrückung zu lindern. „Die Religion ist der Seufzer der bedrängten Kreatur“, beklagte er, „das Gemüt einer herzlosen Welt, wie sie der Geist geistloser Zustände ist. Sie ist das Opium des Volks.“

Atheismus nen liege, die behaupten, es gäbe einen Gott und mit dem viktorianischen Philosophen W. K. Clifford beharren, dass es „immer falsch [ist], überall und für jeden, etwas aufgrund mangelnder Beweise zu glauben.“ Sogar Theisten, so heben sie hervor, nehmen eine atheistische Haltung ein gegen jeden Gott außer ihrem eigenen und sie selbst gingen eben nur einen Schritt weiter. Für die „schwachen“ oder empirischen Atheisten bedeutet „schwächer“ keineswegs „weniger leidenschaftlich“. Sie räumen zwar ein, dass es, zumindest vom Grundsatz her, Beweise geben könnte, die sie von ihrer Meinung abbringen könnten, beharren aber darauf, dass alle verfügbaren Beweise sehr stark gegen die Annahme sprechen, es gäbe Götter. Auf der einen Seite besteht heute keine Notwendigkeit mehr für einen „god of the gaps“ (einen Gott als Lückenbüßer), da der Fortschritt der Wissenschaft, von der Newton’schen Mechanik und Geologie bis zur Darwin’schen Evolutionstheorie, unsere Erkenntnisse stetig erweitert hat und auch die Lücken geschlossen hat, die man früher zur Erklärung mit Gott gefüllt hat. Auf der anderen Seite gelten die Argumente, die lange Zeit als Beweise für die Existenz Gottes dienten (das Design-Argument, der Ontologische Gottesbeweis usw.), heute allgemein als nicht überzeugend und fehlerhaft; sie schneiden unvorteilhaft ab im Vergleich mit Argumenten auf der Gegenseite, wie etwa dem Argument, das auf dem Problem des Bösen basiert und das eine ernste Herausforderung für alle Glaubensüberzeugungen an einen allmächtigen, allwissenden Gott darstellt.



Mein Atheismus (…) ist wahre Frömmigkeit gegenüber dem Universum und bestreitet nur Götter gestaltet von den Männern in ihrem eigenen Bild zu Dienern ihrer menschlichen Interessen. George Santayana, 1922



Worum es geht Unglaub-lich

79

80

Religion

20 Säkularismus „Die Religionsfreiheit ist buchstäblich unsere erste Freiheit. Sie ist als erste genannt in den Bill of Rights und eröffnet mit den Worten, dass der Kongress kein Gesetz erlassen darf, das die Einrichtung einer Religion betrifft oder die freie Religionsausübung verbietet. Dieses Gesetz bedurfte, wie jede Klausel unserer Verfassung, im Laufe der Jahre neuer Auslegungen, die verschiedentlich ausfielen, und die von manchen gutgeheißen und von anderen missbilligt werden. Eins aber ist unbestritten: Dieser erste Zusatzartikel zur Verfassung der Vereinigten Staaten (First Amendment) hat unsere Freiheit religiös zu leben oder nicht, ganz nach unserer Wahl, immer geschützt mit der Folge, dass die Vereinigten Staaten in diesem höchst säkularen Zeitalter eindeutig das im konventionellen Sinne religiöseste Land der ganzen Welt sind, zumindest der ganzen industrialisierten Welt.“ In einer Rede über Religionsfreiheit in Amerika, die US-Präsident Bill Clinton im Juli 1995 vor Studenten hielt, bringt er ein wesentliches Paradox der USA elegant auf den Punkt: Die Tatsache, dass eines der religiösesten Länder der Erde gleichzeitig auch eines der weltlichsten sein kann. Diese scheinbar überraschende Tatsache sagt allerdings weniger etwas über das wahre Gesicht Amerikas aus denn über die diversen Bedeutungen von Säkularismus. Obgleich das Konzept häufig verbunden (und bisweilen verwechselt) wird mit Ideen wie der des Atheismus oder Humanismus, ist es mit keiner von ihnen identisch. Und in der Bedeutung, die Clinton im Sinn hatte, ist der Säkularismus ganz und gar nicht feindlich gegenüber der Religion und auch nicht gegen sie, sondern verweist auf ein besonderes Verständnis für einen angemessenen Platz der Religion in der Verfassung und im Staatsbetrieb. Die „Wall of Separation“ Der erste Zusatzartikel zur Verfassung der Vereinigten Staaten, der 1791 zusammen mit weiteren Grundrechten der Bill of Rights aufgenommen wurde, erklärt, dass „der Kongress kein Gesetz erlassen [darf], das die Einrichtung einer Religion betrifft oder die freie Religionsausübung verbietet …“ Indem es dem Staat verboten ist, eine offizielle Religion zu erklären, und indem die Religionsfreiheit garantiert ist, haben die Gründerväter der USA die Voraussetzun-

Zeitleiste 14.–15. Jh.

frühes

Anfänge der humanistischen Bewegung im Europa der Renaissance

Religionskriege verwüsten Europa

18. Jh.

1789–1790 Frankreich errichtet einen säkularen Staat (Laïcité)

Säkularismus

81



gen geschaffen für die Wall of Separation (wie Thomas JefDie Tyrannei kommt ferson es formuliert), für eine „Trennwand zwischen Religiohne Glauben aus, die on und Staat“. Diese wenigen Worte des ersten Zusatzartikels sind seit über zweihundert Jahren den detaillierten Aus- Freiheit nicht. Wie könnte die Gesellschaft dem Unterlegungen durch den Supreme Court (das Oberste Bundesgericht) unterworfen, und ihre genaue Bedeutung wird bis gang entrinnen, wenn sich heute von interessierten Gruppen heiß diskutiert. Jedoch ist das sittliche Band nicht man sich hinsichtlich eines kleinsten gemeinsamen Nenners festigt, derweil das einig, dass die Klausel eine gegenseitige Einflussnahme von politische sich lockert? Religion und Staat verhindert und gewährleistet, dass jeder Alexis De Tocqueville, 1835 Mensch frei ist in der Wahl und Ausübung einer Religion, oder keiner. Zutiefst säkular in dem Sinne, dass er die Führung weltlicher Angelegenheiten aus göttlicher in menschliche Hand gelegt hat, wirkt dieser Zusatzartikel nichtsdestotrotz entscheidend mit an der Gestaltung einer der lebendigsten und unterschiedlichsten religiösen Gesellschaften der Erde. Dabei mangelt es nicht an ethischen Themen, die die Amerikaner tief spalten und das Potenzial haben, Leidenschaften zu entfachen und Gemeinschaften auseinanderzureißen: Abtreibung, Euthanasie, Stammzellenforschung, Schulgebete, Zensur und dergleichen mehr. Doch haben starke grundgesetzliche Sicherheitsklauseln – und zuvorderst die strikt eingehaltene Trennung von Kirche und Staat – dafür gesorgt, dass derlei Angelegenheiten zumeist friedlich und innerhalb der Grenzen des Gesetzes gelöst worden sind.



Die gestörte Identität Europas Das markanteste an der amerikanischen Erfahrung ist, dass sie so ganz außergewöhnlich ist. Während Europa als die Geburtsstätte des Säkularismus anerkannt war und ist, nicht zuletzt durch jene, die die USamerikanische Verfassung gestaltet haben, sieht die Realität heute so aus, dass die europäischen Staaten sowohl weniger religiös als auch weniger säkular sind als die USA. Diese Realität wird innerhalb Europas selbst nicht oft in vollem Umfang anerkannt. Moderne, selbsternannte „säkulare“ Europäer wenden den Blick heute verständnislos gen Osten, wo sie einen gefährlichen Fundamentalismus in Asien sehen; sowie hochmütig gen Westen, wo sie einen milden Eifer amerikanischer Religiosität



Wenn die Regierung ihre Imprimatur auf eine bestimmte Religion legt, dann transportiert sie die Botschaft der Ausgrenzung all jener, die nicht zu diesem bevorzugten Glauben stehen. Harry A. Blackmun, Richter am Obersten Gerichtshof der USA, 1997



1791

1802

1990er

Juli 1995

Der erste Zusatzartikel zur Verfassung der Vereinigten Staaten fordert die Trennung von Religion und Staat

Präsident Thomas Jefferson spricht von der „Wall of Separation“

Religiöse und ethnische Spannungen befeuern die Jugoslawienkriege im Balkan

US-Präsident Bill Clinton hält Rede über „Religionsfreiheit in Amerika“

82

Religion entdecken. Mit Zeloten von beiden Seiten, ist es aus der überlegenen Mitte heraus doch sehr verlockend, den Säkularismus als die krönende Errungenschaft der europäischen und nicht der westlichen Zivilisation zu erachten. Doch das Bild ist irreführend. Das europäische Selbstbild basiert auf einer halb mythischen Schilderung der Säkularisierung, die ihre Ursprünge in der Renaissance hat, als der Mensch erstmals begann, sich Gottes angestammten Platzes im Zentrum der menschlichen Bühne zu bemächtigen und ausgeprägte wissenschaftliche Erklärungen vom Platz des Menschen in der Welt theologisch inspirierte Beschreibungen zu verdrängen begannen. Nach der üblichen Geschichtsschreibung gelangte dieser Prozess mit den Religionskriegen an einen kritischen Punkt, der seinen blutigen Höhepunkt im 17. Jahrhundert erreichte. Zu jener Zeit wurden die zerstörerischen konfessionellen Wogen, welche die Protestantische Reformation aufgewühlt hatte, durch die säkularen Umformungen geglättet, die von Philosophen der Aufklärung wie Hobbes und Locke inspiriert waren und getragen vom Strom des wissenschaftlichen Fortschritts herangeschwemmt wurden. Diese Prozesse führten letztlich dazu, dass die politische Theologie, die auf der göttlichen Offenbarung gründete, nun ersetzt wurde durch eine politische Philosophie, die auf der menschlichen Vernunft gründete. Die Religion wurde in einen eigenen geschützten, privaten Bereich geschoben, während ein liberaler öffentlicher Bereich geschaffen wurde, in dem die freie Meinungsäußerung und Tolerierung der Meinungsunterschiede vorherrschend waren. Und überdies war damit ein reicher säkularer Nährboden bereitet, auf dem die Demokratie letztlich erblühen und gedeihen konnte. Doch leider ist diese mythenhafte Darstellung, die als Genealogie wie auch als Begründung der modernen säkularen Identität Europas gewürdigt wird, in entschei-

Euro-Angst Nirgendwo tritt die Angst Europas um seine säkulare Identität so deutlich zutage wie in den jüngsten Manövern der Europäischen Union (EU). Die EU – ein Projekt, das ursprünglich von Christlichen Demokraten finanziert und vom Vatikan sanktioniert wurde – geriet zu Beginn des 21. Jahrhunderts in einen erbitterten Streit um den Wortlaut der Präambel zum Verfassungsvertrag. In einem ersten Entwurf nahm diese Bezug auf Gott und die europäischen christlichen Werte. Aber Beunruhigung darüber, was solche Verweise über Europas gemeinsame Identität und seine identitätsstiftenden

Werte aussagen, führte zu einer Kompromissformel, die das „kulturelle, religiöse und humanistische Erbe Europas“ erwähnt. Ein weiterer Gewissenskampf entstand mit der Osterweiterung der EU, im Zuge derer das erzkatholische Polen als erstes Land aufgenommen wurde und man sich heute mit dem Beitrittsgesuch der Türkei vor einer Herausforderung sieht, eines Landes, wo der Ruf nach mehr demokratischer Freiheit begleitet war und ist von zunehmenden öffentlichen Demonstrationen aus den Reihen der islamischen Kulturen und Religionen.

Säkularismus

„Wir machen hier nicht in Gott“ Die entgegengesetzten Erfahrungen Großbritanniens und der USA lassen vermuten, dass der Säkularismus das wirksamste Mittel sein kann, die Religion zu fördern und zu stärken. In einem Interview 2003 schmetterte Alastair Campbell, langjähriger Sprecher und Medienberater des britischen Premierministers Tony Blair, einen Reporter ab, der nach Blairs religiösen Überzeugungen fragte: „Wir machen hier nicht in Gott“ („We don’t do God“). Öffentliche Bekundungen über die eigene Religiosität gelten im Vereinigten Königreich als verlustbringend

in Sachen Wählerstimmen – und das trotz der Tatsache, dass das Land eine Staatskirche hat (die „Church of England“) und sein Monarch nicht nur Oberhaupt des Staates ist, sondern auch „Hüter des Glaubens“. Im Gegensatz dazu ist es in den USA, wo die Verfassung strikte Säkularität fordert, geradezu obligatorisch für ambitionierte Politiker, die „religiöse Karte“ auszuspielen, und es ist eine politische Plattitüde, dass ein Atheist niemals zum Präsidenten gewählt werden könnte.

denden Teilen fehlerhaft. Mit der rühmlichen Ausnahme Frankreichs (wo der Säkularismus (laicïté) in einer Revolution mit dem Blut seiner Bürger bezahlt wurde) war kein europäisches Land völlig oder durchweg säkular. Die Religionskriege des 17. Jahrhunderts haben kein Europa moderner säkularer Staaten hervorgebracht, sondern vielmehr einen bunten Flickenteppich aus konfessionellen Flächenstaaten. Die einzige Freiheit (wenn überhaupt), die man religiösen Minderheiten zugestand, die sich im falschen konfessionellen Gebiet befanden, war die „Freiheit“, abwandern zu dürfen. Viel anders ist das bis heute nicht. Das Vereinigte Königreich zum Beispiel hat eine Staatskirche, wie auch die lutherischen Länder Skandinaviens, während andere Nationen wie Polen, Irland oder Italien hauptsächlich katholisch sind. Wo eine Zeitlang ein strenger Säkularismus geherrscht hat, wie beispielsweise in der Sowjetunion und Osteuropa, waren Gewalt, Repression, Intoleranz und höchst autoritäre Regierungen nicht selten. Ein Zeichen für die zweideutige Natur des europäischen Säkularismus, das klarer nicht sein könnte, ist die Tatsache, dass die Balkanstaaten im letzten Jahrzehnt des 20. Jahrhunderts durch Kriege, die von religiösen Unterschieden ebenso motiviert waren wie von ethnischen, so schwer gebeutelt werden konnten.

esnicht geht „Wir Worum machen hier in Gott“

83

84

Religion

21 Kreationismus Im August 2008 wurde die Gouverneurin von Alaska, Sarah Palin, Vize-Kandidatin des republikanischen Präsidentschaftskandidaten John McCain. In Anbetracht des relativ fortgeschrittenen Alters des Möchtegern-Präsidenten richtete sich das Interesse der Medien unweigerlich auf das Lebensumfeld der 44-jährigen, kämpferischen Republikanerin, diesen „Pitbull mit Lippenstift“, die wenige Monate später einen Herzschlag vom mächtigsten Amt der Welt entfernt sein könnte. Dass Palin sich zum Kreationismus bekennt, dem Glauben, dass die Welt und alles Leben darin das unmittelbare Werk eines göttlichen Schöpfers seien, löste dabei hitzige Debatten aus.

Liberale Kommentatoren spekulierten, dass Palin sich in ihrem Verhalten als Präsidentin maßgeblich leiten lassen würde von ihren religiösen Überzeugungen. Nur wenige Wochen vor ihrer Nominierung hatte sie vor versammelten evangelikalen Glaubensgenossen den heftig umstrittenen Irakkrieg als eine von „Gott gegebene Aufgabe“ bezeichnet und forderte im Anschluss daran zum Gebet auf für eine ebenfalls heiß umstrittene und umweltsensible Erdgas-Pipeline quer durch Alaska. Im Laufe ihrer Karriere machte sie sich etliche sozial konservative Ansichten zu eigen, die eng verbunden sind mit der kreationistischen Lobby, darunter die Verurteilung von Schwangerschaftsabbrüchen, der Stammzellenforschung und der Ausweitung der Schwulenrechte. Mit ihren kreationistischen Ansichten befand sie sich allerdings in guter Gesellschaft. Wie jüngste Die Idee des Intelligen- Studien zeigen, stimmen rund zwei Drittel aller Erwachsenen in ten Designs ist keine den USA den Lehren der fundamentalistischen, sogenannten echte wissenschaftliche Junge-Erde-Kreationisten zu, die glauben, dass der Mensch in Theorie und hat daher seiner gegenwärtigen Form definitiv oder wahrscheinlich innerkeinen Platz im Lehrplan halb der letzten 10 000 Jahren erschaffen wurde.



der naturwissenschaftlichen Fächern unserer öffentlichen Schulen. Senator Edward Kennedy, 2002



Zeitleiste

Nur 4499993988 Jahre auseinander Im öffentlichen Diskurs von heute wird der Begriff „Kreationist“ allgemein eng gefasst und hauptsächlich bezogen auf den evangelikalen protestantischen Fundamentalismus in den USA. Die Anhänger

21. September 4004 v. Chr.

1802

1925

Nach Erzbischof James Ussher der Tag der Schöpfung

William Paley gelingt eine klassische Formulierung des Design-Arguments

Der Ausgang des „Affenprozesses“ wirft die Kreationisten zurück

Kreationismus

85

glauben, dass die Bibel das direkt inspirierte Wort Gottes sei und daher wortwörtlich als evangelikale Wahrheit ausgelegt werden müsse. Insbesondere die Worte im Buch Genesis gelten als eine wahre und genaue Darstellung der Schöpfung der Welt sowie aller in ihr beheimateten Tiere und Pflanzen (verwirrenderweise enthält die Bibel zwei unterschiedliche Darstellungen), als ein Akt, der innerhalb der vergangenen 10 000 Jahre binnen sechs Tagen vollendet worden sein soll. Als Zeitpunkt der Schöpfung wird nach Berechnungen des englischen Erzbischofes James Ussher im 17. Jahrhundert das Jahr 4004 v. Chr. angenommen. Derlei Darstellungen stehen in vielerlei Hinsichten in einem eindeutigen und direkten Widerspruch mit dem orthodoxen wissenschaftlichen Verständnis von den Dingen in der Welt. Gemäß der geologischen Standardchronologie ist die Erde annähernd 4,5 Milliarden Jahre alt, während die reiche Artenvielfalt (darunter auch der Mensch), die heute in der Welt existiert, als das Ergebnis evolutionärer Prozesse angesehen wird, die sich im Laufe von hunderten von Millionen Jahren schrittweise vollzogen haben. Indem sie eine Spaltung zwischen den physikalischen und spirituellen Bereichen anerkannten, haben die meisten religiösen Lehren, christliche wie andere, versucht, unüberbrückbare Abgründe zwischen Wissenschaft und Religion abzuwenden. Nach der römisch-katholischen Sicht beispielsweise, die Papst Johannes Paul II. im Jahr 1981 zum Ausdruck brachte, ist demzufolge der Zweck der biblischen Schöpfungsgeschichten nicht der, eine wissenschaftliche Abhandlung zu liefern, sondern die richtige Beziehung zwischen Gott und dem Menschen zu erklären: Sinnbildlich oder symbolisch verstanden, und nicht wörtlich, ist Ziel und Zweck dieser Beschreibungen, uns zu sagen, nicht „wie der Himmel erschaffen worden ist, sondern wie wir dorthin kommen“. Diese Art der Übereinkunft jedoch verschließt sich bibeltreuen Junge-Erde-Kreationisten, die vielmehr darauf beharren, dass die Bibel „das geschriebene Wort Gottes [ist] … und alle ihre Behauptungen historisch und wissenschaftlich wahr … [sind]“ – wie es die Creation Research Society („Gesellschaft zur Schöpfungsforschung“) formuliert.

Unter dem Motto „Teach the Controversy“ Der Kreationismus hatte in den USA schon immer eine starke politische Dimension. Dies hat sich im vergangenen Jahrhundert in einem gezielten Widerstand gegenüber dem Unterricht der Evolutionstheorie in der Schule geäußert. Die buchstäbliche Wahrheit der biblischen Schöpfungsgeschichten wird dabei als Beweis für die Falschheit der Evolution gesehen. Und so nimmt es kaum Wunder, dass die ersten entsprechenden Versuche der Kreationisten explizit anti-evolutionistisch waren insofern, als sie das Studium des Darwinismus (wie sie es gemeinhin bezeichneten) aus den Lehrplänen der öffentli-

1960er

1981

1990er

2005

Der wissenschaftliche Kreationismus bringt Gründe für eine „junge“ Erde vor

Das in Arkansas eingebrachte Gesetz zur ausgewogenen Behandlung („balanced-treatment“) wurde für verfassungswidrig erklärt

Die Idee des Intelligenten Designs betont die nichtreduzierbare Komplexität

Laut einem Urteil des Bundesgerichts unterscheidet sich das Intelligente Design nicht in eindeutiger Weise vom Kreationismus

86

Religion chen Schulen verbannen wollten. Jedoch verlor der Ruf nach einem totalen Verbot, die Evolutionstheorie an öffentlichen Schulen zu lehren, mit dem berühmt berüchtigten Scopes-Prozess von 1925 (siehe Kasten), der auch als Scopes Monkey Trial („Affenprozess“) bekannt ist, einiges an Dynamik. Seit den 1960er Jahren sind die Kräfte der Kreationisten zunehmend darauf gelenkt, ein balanced treatment durchzusetzen, eine „ausgewogene Behandlung“ beider Lehren. Unter dem Motto „Teach the Controversy“ setzen Aktivisten alles daran zu zeigen, dass wissenschaftliche Argumente für das kreationistische Verständnis der Welt vorgebracht werden können, die mindestens so stark seien wie jene für die Evolution, und deshalb beide Sichtweisen zu gleichen Teilen im wissenschaftlichen Unterricht zugelassen werden müssten. Damit war eine neue Disziplin geboren, die kreationistische Wissenschaft, deren vorrangiges Ziel es war, alternative, vorgeblich wissenschaftliche Erklärungen zu liefern für die enormen Belege (aus der Geologie, Paläontologie, Biologie und Molekularbiologie), die die orthodoxe wissenschaftli-

Der „Affenprozess“ Das Jahr 1925 markierte einen Wendepunkt in der Geschichte des Kreationismus. In Dayton, Tennessee, startete damals William Jennings Bryan, ein anti-evolutionistischer Politiker, eine landesweite Kampagne gegen die Evolutionslehre an öffentlichen Schulen. Er unterstützte die Anklage im Prozess gegen den jungen Biologielehrer John Scopes, der angeklagt war, da er trotz des Verbotes vom Staate Tennessee, die „unbewiesene Hypothese“ der Evolution unterrichtet hatte. Pech für Bryan, denn er traf in diesem Prozess, der bald schon unter dem Namen „Affenprozess“ bekannt wurde, mit Clarence Darrow auf einen brillanten Verteidiger der Gegenseite. Der Prozess erreichte seinen absurden Höhepunkt, als Darrow seinen Gegner Bryan in den Zeugenstand berief, um ihn als Sachverständigen zur Evolutionstheorie vernehmen zu lassen. Der einzige Beweis, der Bryan gelang, war sein eigenes unvollkommenes Verständnis der Theorie. Am Ende wurde er

dazu gezwungen, zuzugeben, dass er nicht über Dinge nachdenke, über die er nicht nachdenke. Woraufhin Darrow bissig nachhakte: „Denken Sie über Dinge nach, über die Sie nachdenken?“ Der Prozessausgang war ein Pyrrhussieg für die Anti-Evolutionisten, in dem Scopes zwar verurteilt wurde, nach der Berufung jedoch freigesprochen wurde. Bryan starb nur fünf Tage nach dem Prozess. Über die „gaffenden Affen aus den Hochlandtälern“ – wie der Journalist H. L. Mencken die unwissenden Bewohner Tennessees sarkastisch nannte – wurde weit verbreitet gnadenlos Hohn und Spott ausgeschüttet. Doch der Widerstand gegen die Evolutionstheorie war nach wie vor groß, und wie Mencken warnte, brennt „das Feuer des Kreationismus noch auf vielen verstreuten Hügeln und kann jederzeit hochschlagen“. Heute ist aus den einzelnen Feuern ein Flächenbrand geworden, und nichts deutet darauf, dass es bald verglimmt.

Kreationismus che Darstellung und die zeitliche Entwicklung der Erde und allen Lebens darauf massiv untermauern.

Der wiederbelebte Uhrmacher Im Einklang mit der festgeschriebenen Trennung von Staat und Kirche in der Verfassung der USA wurde eine Reihe von richtungsweisenden, gesetzlichen Regelungen verfügt. Damit wurden Versuche kreationistischer Wissenschaftler ausgebremst, das, was als Wissenschaft gilt, neu zu definieren und ihre anderslautenden Theorien dem Lehrbetrieb der öffentlichen Schulen unterzuschieben. Gegen Ende des 20. Jahrhunderts änderten die Kreationisten dann ihre Strategie. Indem sie nach Meinung ihrer Gegner taktierte und jegliche Verbindung mit dem Kreationismus und damit der Religion überhaupt leugnete, formierte sich eine neue kreationistische Generation. Diese Theoretiker des Intelligenten Designs (ID) belebten das im Grunde mindestens bis zu Thomas von Aquin zurückreichende Design-Argument wieder, das der englische Theologe William Paley im frühen 19. Jahrhundert sehr eindrücklich dargelegt hat: Würde man auf irgendeinem Acker zufällig eine funktionierende Uhr auf dem Boden finden, argumentierte Paley, so würde man aufgrund der präzisen Anordnung ihrer Einzelteile zwangsläufig darauf schließen, dass sie von einem Uhrmacher gemacht und konstruiert worden sein muss; wenn man Die Lehren der Evolution sind nun all die wundersamen Erfindungen der Natur beverantwortlich für alle Übel der trachte, sei man in der gleichen Weise zu dem Schluss amerikanischen Welt. Es wäre gezwungen, sie seien ebenfalls das Werk eines Madaher besser, man würde jedes chers – und dieser Macher ist Gott. In der neuen Vereinzelne Buch, das je geschriesion lautete das Schlagwort nun „nichtreduzierbare Komplexität“. Diese Idee besagt, dass bestimmte funk- ben wurde, vernichten und nur tionale Eigenschaften lebendiger Organismen so aufdie drei ersten Verse der Genesis gebaut sind, dass sie nicht mittels der üblichen evoluretten. tionären Mechanismen erklärt werden können. AufWilliam Jennings Bryan, 1924 grund dieser Eigenschaften und der lebenden Organismen, die sie aufweisen, schloss man auf das Werk eines intelligenten Planers. Evolutionsbiologen wenden sich natürlich schlichtweg gegen eine solche Annahme, dass solche irreduziblen komplexen Eigenschaften in der Natur tatsächlich vorkommen. In Anspielung auf Paleys Bild beschreibt der britische Biologe Richard Dawkins den Hauptmechanismus der Evolution, die natürliche Selektion, als „blinden“ Uhrmacher. Blind deshalb, da sie die komplexen Strukturen der Natur ohne jegliche Voraussicht, Zweck- oder Zielgerichtetheit gestaltet.





Worum es geht Wenn Welt-Sichten kollidieren

87

88

Politik

22 Krieg „Der Klang, der am nachhaltigsten durch die gesamte Geschichte der Menschheit widerhallt, ist der von Kriegstrommeln. Stammeskriege, Religionskriege, Bürgerkriege, dynastische Kriege, Kolonialkriege, nationale und revolutionäre Kriege, Eroberungs- und Befreiungskriege, Kriege, um alle Kriege zu verhindern und zu beenden, folgen einander seit Menschengedenken in einer Kette zwanghafter Wiederholung. Und es besteht aller Grund zu der Annahme, daß diese Kette sich auch in Zukunft fortsetzen wird.“ Es bräuchte schon einen außerordentlichen Optimisten, blind gegenüber der menschlichen Geschichte, um diese Sicht der ewigen Natur des Krieges des aus Ungarn stammenden britischen Universalgelehrten Arthur Koestler ernsthaft in Frage zu stellen. Die Fortdauer und Allgegenwart der Kriegsführung nähren bei manch einem die Annahme, der Krieg sei ein der menschlichen Natur eingeschriebenes chronisches Phänomen, wohingegen sich manch anderer an die Hoffnung klammert, er sei in irgendeiner Weise kulturell bedingt, eine Folge gesellschaftlicher Praktiken, die prinzipiell auch reformiert oder beseitigt werden könnten. Aufschluss darüber gibt der preußische Militärtheoretiker Carl von Clausewitz, der den Krieg bekanntermaßen beschrieb als „die Fortsetzung der Politik mit anderen Mitteln“. Solange die Menschen politische Tiere sind, hungrig nach Land und anderen Ressourcen, wird es ewig Streitigkeiten darum geben, welche Gruppe wo lebt, und welche Gruppe einer anderen vorschreibt, was sie zu tun hat. Und sehr oft werden diese Streitigkeiten nicht mit anderen, sprich mit friedfertigen Mitteln zu lösen sein, sodass ein gewaltsamer Konflikt die unausweichliche Folge ist. Doch nicht alle Streitigkeiten sind gleich schlimm, und auch nicht die Gewalt, die gebraucht wird, um sie zu beenden. Die philosophische Debatte über die Moralität von Krieg, heute ein Thema wie eh und je, hat eine lange Geschichte. So etwa hat Augustinus von Hippo im 5. Jahrhundert nach Christus nach einem Kompromiss gesucht zwischen den pazifistischen Neigungen der frühen Kirche und den militärischen Bedürfnissen imperialer Herrscher. Damit hat er den Samen ausgelegt für die langlebige christliche Doktrin vom gerechten Krieg, die gegründet ist auf die moralische Pflicht, nach Gerechtigkeit zu streben und die Unschuldigen zu verteidigen. Die Theorie von einem gerechten Krieg ist in Philosophenkreisen heute die wohl

Zeitleiste 4. Jh. v. Chr.

5. Jh. n. Chr.

Die Kunst des Krieges (Sun-Tsu), welterstes Werk der Militärtheorie

Augustinus von Hippo entwickelt die christliche Doktrin vom gerechten Krieg

Krieg

89

am meisten diskutierte, die einzige Perspektive ist sie jedoch nicht. Es gibt daneben zwei weitere extreme Positionen, Realismus und Pazifismus. Die Realisten sind skeptisch, wenn es darum geht, ethische Konzepte auf den Krieg anzuwenden. Für sie stehen Fragen wie internationaler Einfluss, nationale Sicherheit und nationales Eigeninteresse im Mittelpunkt. Die Pazifisten sind im Gegensatz dazu überzeugt, dass Moralität in den internationalen Beziehungen überwiegen muss. Anders als für die Kriegsbefürworter sind militärische Handlungen für den Pazifisten niemals die richtige Lösung – es gibt immer auch eine bessere Lösung.

Der gerechte Krieg „Der Krieg ist eine hässliche Sache, aber nicht die hässlichste: Der verfaulte und entartete Zustand moralischer und patriotischer Gefühle, der glaubt, daß nichts einen Krieg wert ist, ist viel schlimmer.“ Selbst J. S. Mill, ein äußerst human gesinnter Mensch und Philosoph der Viktorianischen Zeit, erkennt, dass es zuweilen nötig sei, den guten Kampf zu kämpfen. Das Motiv kann so derart zwingend sein, die Sache so derart wichtig, dass die Waffengewalt moralisch gerechtfertigt ist. Unter derlei spezifischen Umständen mag der Krieg das kleinere von zwei Übeln sein: Krieg mag dann ein gerechter Krieg sein. Die Vorstellungen des Augustinus über den gerechten Krieg wurden im 13. Jahrhundert wieder aufgegriffen und verfeinert von Thomas von Aquin, der die nun

Die Segnungen des Krieges Kriege hatten schon immer ihre Anhänger, früher wie heute. 1911, drei Jahre vor Ausbruch des „Krieges, der alle Kriege beenden würde“, schrieb der preußische Militärhistoriker Friedrich von Bernhardi glühend vor Begeisterung von der „Unausweichlichkeit, dem Idealismus und den Segnungen des Krieges“. Und der englische Dichter und Kritiker Edmund Gosse, preist zu Beginn desselben grässlichen Konfliktes in einem Aufsatz den Krieg als „das wirksamste Desinfektionsmittel“, dessen „roter Strom von Blut ... die abgestandenen Teiche und ver-

stopften Kanäle des Intellekts ausputzt“. Weniger überraschend finden wir den Krieg gepriesen von Faschisten wie Mussolini, der sich darüber ergeht, dass der Krieg „den Völkern, die wagen, ihn zu führen, den Stempel des Adels aufdrücke“. Bemerkenswerterweise aber sind es meist die Kriegsveteranen, wie etwa Dwight D. Eisenhower, die die wahre Natur des Krieges begreifen: „Ich hasse Krieg wie nur ein Soldat, der je gelebt hat, ihn hassen kann, schon allein weil ich seine Brutalität, seine Sinnlosigkeit, seine Dummheit gesehen habe.“

13. Jh.

1832

1862

1978

Thomas von Aquin verfeinert Prinzipien des gerechten Krieges

Vom Kriege, Hauptwerk von Carl von Clausewitz

Der Amerikanische Bürgerkrieg veranlasst J. S. Mill zu einem Loblied auf das Prinzip des gerechten Krieges

Arthur Koestler macht Ausführungen über die ewige Natur des Krieges

90

Politik



Bismarck kämpfte ,notwendige‘ Kriege und tötete Tausende; die Idealisten des 20. Jahrhunderts kämpfen ,gerechte‘ Kriege und töten Millionen. A. J. P. Taylor, 1952



kanonische Unterscheidung trifft zwischen ius ad bellum („Das Recht zum Krieg“ – Bedingungen, unter denen es moralisch richtig ist, zu den Waffen zu greifen) und ius in bello („Das Recht im Krieg“ – Verhaltensregeln, die gelten, sobald der Kampf begonnen hat). Die Debatte um die „Theorie des Gerechten Krieges“ konzentriert sich im Wesentlichen auf diese beiden Konzepte.

Ius ad bellum Im Allgemeinen ist man sich einig darüber, dass unterschiedliche Kriterien erfüllt sein müssen, um den Schritt zum Krieg zu rechtfertigen. Die vorrangige, aber auch meist diskutierte Bedingung für einen moralisch gerechtfertigten Krieg ist der gerechte Grund. In früheren Zeiten war es oft eine Form von religiösem Grund. Jedoch würde ein solcher Grund heute in der säkularen westlichen Welt generell als ideologisch und somit als nicht angemessen gewertet werden. Die meisten modernen Theoretiker haben das Spektrum der Gründe eingeengt auf die Abwehr gegen eine Aggression. Dazu gehört etwa, was am wenigsten umstritten ist, die Selbstverteidigung gegen die Verletzung fundamentaler Rechte eines Landes – seiner politischen Souveränität und territorialen Integrität (z. B. Kuwait gegen den Irak 1990/91). Auch die Unterstützung einer dritten Partei, die einen solchen Angriff erleidet (wie die Koalitionskräfte, die Kuwait 1991 befreiten), ist für viele vorstellbar. Es reicht aber nicht aus, einen gerechten Grund zu haben; es ist ebenso notwendig, die rechte Absicht zu haben. Das einzige Motiv für einen gerechten Krieg ist, das zu berichtigen, was durch den Angriff ausgelöst wurde und damit den gerechten Grund lieferte. Der gerechte Grund kann nicht ein Feigenblatt sein für versteckte Ziele wie nationale Interessen, territoriale Expansion oder Bereicherung. Die Entscheidung, zu den Waffen zu greifen, sollte nur von legitimen Autoritäten getroffen werden. „Der Krieg ist das Geschäft der Könige“, schrieb Dryden gegen Ende des 17. Jahrhunderts, doch die Französische Revolution ein Jahrhundert später sorgte dafür, dass das Recht, den Krieg zu erklären, künftig jedweder staatlichen Instanz oder Institution zustand, die im Staat die souveräne Gewalt innehatte. Die „legitime (rechtmäßige) Autorität“ ist an sich schon ein äußerst verworrenes Kriterium und wirft schwierige Fragen auf wie etwa nach rechtmäßigen Staatsregierungen oder entsprechenden Beziehungen zwischen den staatlichen Entscheidungsträgern und der Bevölkerung. Die meisten würden beispielsweise argumentieren, dass den Nazi-Herrschern der 1930er Jahre in Deutschland nicht bloß der gerechte Grund fehlte, sondern auch die grundlegende Legitimation, Krieg zu erklären und zu führen.

Krieg Ein Land sollte sich nur dann zur Führung eines Krieges (auch eines gerechten) entscheiden, wenn eine vernünftige Aussicht auf Erfolg besteht, denn es macht keinen Sinn, Leben und Ressourcen umsonst zu vergeuden. Man könnte aber auch argumentieren, es sei richtig (und ganz und gar nicht falsch), sich einem Aggressor entgegenzustellen, egal, wie zwecklos dies auch sein mag. Überdies muss es einen Sinn für die Verhältnismäßigkeit geben. Es muss ein Gleichgewicht geben zwischen dem gewünschten Ziel und den wahrscheinlichen Folgen auf dem Weg dorthin: Das erwartete Gute (das Unrecht zu korrigieren, das den gerechten Grund liefert) muss abgewogen werden gegen den erwarteten Schaden (Todesopfer, menschliches Leid, etc.). „Die höchste Kunst des Krieges ist es, den Feind ohne Kampfabhandlung zu besiegen“, sagte einmal der chinesische General Sun-Tsu, der erste große Militärtheoretiker der Welt. Militärisches Handeln muss immer letztes Mittel bleiben und ist überhaupt nur gerechtfertigt, wenn jedes andere friedliche, nicht-militärische Mittel versagt hat. „Jeder Krieg stellt ein Versagen der Diplomatie dar“, wie der britische Politiker Tony Benn einmal herausgestellt hat.



Ius in bello Der zweite Aspekt in der Theorie des gerechten Die Menschheit muss Krieges ist Ius in bello – was stellt moralisch akzeptable und dem Krieg ein Ende angemessene Handlungsweisen dar, wenn der Kampf einmal setzen, oder der Krieg begonnen hat? Dies umfasst ein sehr weites Spektrum. Es reicht vom Verhalten der einzelnen Soldaten in ihrem Verhältnis zu so- setzt der Menschheit ein wohl dem Feind als auch zu den Zivilisten bis hin zu bedeuten- Ende. den strategischen Fragen wie dem Einsatz von Waffen (nukleaJohn F. Kennedy, 1961 ren Waffen, chemischen Waffen, Minen, Clusterbomben etc.). Auf diesem Gebiet sind für gewöhnlich zwei Überlegungen von höchster Bedeutung. Das Kriterium der Verhältnismäßigkeit verlangt, dass Mittel und Zwecke gut aufeinander abgestimmt sind. Um einen extremen Fall zu nennen: Fast jeder stimmt bei, dass ein nuklearer Angriff nicht zu rechtfertigen ist, ganz egal wie erfolgreich er sein könnte, ein militärisches Ziel zu erreichen. Das Diskriminierungsgebot verlangt, zwischen Kriegsteilnehmern und Nichtkriegsteilnehmern strikt zu unterscheiden. Es gilt beispielsweise als unzulässig, auf Zivilisten zu zielen, auch wenn dies helfen könnte, die militärische Moral auszuhöhlen. Viele Aspekte des Ius in bello überschneiden sich mit der Frage der Kriegsverbrechen und den Inhalten des internationalen Rechts wie der Haager und der Genfer Konvention.



Worum es geht Politik mit anderen Mitteln

91

92

Politik

23 Pflicht Sie sind Mitglied der Résistance im besetzten Frankreich und eben von einem Gestapo-Offizier gefangen genommen worden, der sie verhört. Er lässt zehn Kinder aus Ihrem Dorf antreten und droht, sie zu erschießen, es sei denn, Sie helfen mit, zwei Ihrer Mitkämpfer aufzuspüren und selbige dann zu erschießen. Sie haben keinerlei Zweifel, dass der Offizier seine Drohung wahrmachen wird, sollten Sie seiner Forderung nicht nachkommen.

Ein scheußliches Dilemma. Was tun Sie? An Fragen wie diesen scheiden sich die Geister der Moraltheoretiker, die im Allgemeinen zwei Sichtweisen vertreten. Die einen sind der Meinung, man solle die unterschiedlichen Folgen im Blick haben, die durch die vorliegenden Handlungsoptionen entstehen: Kommt man den Forderungen des Offiziers nach, wird es zwei tote Widerstandskämpfer geben; wenn nicht, wird es zehn tote Kinder geben. Es seien daher die Folgen der Handlung, auf die es ankommt (die Begleitumstände seien gleich), und insofern sei es richtig, dem Offizier zu gehorchen. Die anderen sagen, dass es die eigene Handlung sei, auf die es ankommt, darauf, dass man selbst der Handelnde sei, der die Erschießung ausführt: Nicht zu töten ist eine Pflicht – ein moralisches Gebot –, und insofern müsse man sich dieser Handlung verweigern, so grausam die Folgen auch sein mögen. Im echten Leben sind die Dinge selten, wenn überhaupt, so einfach oder so krass wie hier. Die Begleitumstände sind selten haargenau gleich, und es gibt fast immer andere und vielleicht auch bessere Handlungsoptionen (sollte der Gestapo-Offizier Ihnen wirklich ein Gewehr in die Hand drücken, könnten Sie es auch gegen sich selbst richten – oder besser noch auf ihn). Trotzdem, das beschriebene Szenario mag extrem sein, ein Fantasiegespinst ist es nicht. Es rückt einige wesentliche Merkmale in den Blickpunkt, wie sie sich auch in eher alltäglichen Situationen finden. Insbesondere ist es in solchen Situationen natürlich, sich die Frage nach der moralischen Pflicht zu stellen. Wo Rechte von Menschen ernstlich verletzt werden, erwachsen ganz klar diverse Verantwortlichkeiten gegenüber allen Beteiligten und man wird unweigerlich konfrontiert mit widersprüchlichen Pflichtforderungen. Wie entscheidet man da, was man tun soll?

Zeitleiste 14.–13. Jh. v. Chr.

1688

Der Heiligen Schrift zufolge erhält Moses auf dem Berg Sinai die Zehn Gebote

Die Glorreiche Revolution beendet den königlichen Absolutismus in England

Pflicht



Pflicht ist das erhabenste Wort unserer Sprache. Tu Deine Pflicht in allen Dingen. Du kannst nicht mehr tun. Du solltest niemals wünschen, weniger zu tun. Robert E. Lee (zugeschrieben), 19. Jh.



Gottgegebene Pflicht Eine Pflicht ist eine Verantwortlichkeit oder Verpflichtung, die von einem gefordert wird, entweder aufgrund einer Stellung, die man einnimmt oder gemäß einer Sitte, eines Gesetzes oder einer Autorität, die man mehr oder weniger willens ist anzunehmen. Die höchste Autorität war für den Großteil der Menschheit im Laufe ihrer Geschichte von göttlicher Natur. Der Wille und die Befehle eines Gottes oder der Götter, die für gewöhnlich über irgendeine Art von Schrift weitergegeben und meist durch irgendeine Art von Priesterschaft vermittelt werden, erlegen den Menschen Verpflichtungen auf, die es zu erfüllen gilt, sei es durch die Annahme gewisser Verhaltenskodizes oder durch bestimmte Dienstbarkeiten und Opferbezeigungen zu Ehren der Gottheit/Gottheiten. In der jüdischchristlichen Tradition sind die Zehn Gebote das bekannteste Beispiel dafür, eine Reihe von göttlichen Geboten und Verboten, die Gottes Willen für das Verhalten des Menschen zusammenfassen: Du sollst nicht töten oder Du sollst nicht begehren deines Nächsten Weib. In der Geschichte der Menschheit waren die irdischen Stellvertreter Gottes nicht selten bekleidet mit dem Ornat dieser göttlichen Autorität, dem obersten Quell der Pflichten, was ihnen das absolute Recht gab, ohne Rücksicht auf den Willen ihrer Untergebenen zu herrschen. Beispiele dafür sind die Stuart-Könige in England oder die Bourbonen-Könige in Frankreich, die sich mit ihrem Anspruch auf das göttliche Recht befugt und verpflichtet sahen, das Christentum auf Erden zu verteidigen und ihren Untertanen bedingungslose Pflichttreue und Pflichtergebenheit aufzuerlegen. Solch ein Absolutismus wurde durch die Revolutionen im 17. und 18. Jahrhundert weitgehend zersetzt, als verfassungsrechtliche Vorschriften eingeführt und Monarchen und Untertanen beiderseitig mit Rechten und Pflichten ausgestattet wurden. Kant über die Pflicht Der bei Weitem einflussreichste Beitrag zur philosophischen Diskussion um die Pflicht kam im 18. Jahrhundert von dem deutschen Philosophen Immanuel Kant. Nach Kants strenger Auffassung haben Handlungen keinerlei moralischen Wert, wenn sie durch Mitgefühl, Freundschaft oder zweckbestimmt motiviert sind. Lediglich Handlungen, die einzig durch ein Gefühl der Pflicht veranlasst sind – der Pflicht, den moralischen Gesetzen zu folgen, die durch die Ver-

1775–1783

1785

1789

Die Amerikanische Revolution begründet ein System der Rechte und Pflichten in den USA

Kant erörtert die Pflicht in Grundlegung zur Metaphysik der Sitten

Erklärung der Menschen- und Bürgerrechte in Frankreich

93

94

Politik nunft bestimmt sind –, sind als unverwechselbar moralisch zu sehen. Eine nichtmoralisch bedingte Veranlassung, die auf ein Ziel (oder einen Wunsch) gerichtet ist, bezeichnet er als „hypothetischen Imperativ“, als ein Gebot, dem Folge zu leisten keinerlei Pflicht darstellt, wenn man ein bestimmtes Ziel nicht zu erlangen wünscht. Im Gegensatz dazu hat ein Moralgesetz die Form des „kategorischen Imperativs“: ein Gebot, das absolut, bedingungsfrei und universell ist in dem Sinne, dass es auf alle vernunftbegabten Wesen gleichermaßen anwendbar ist.

Handlungen, Unterlassungen und Doppelwirkung Nehmen wir einen Fall wie den oben erwähnten des Gestapo-Offiziers und des französischen Widerstandskämpfers. Nehmen wir an, Sie sind der Meinung, es sei eine absolut moralische Pflicht, Menschen nicht zu töten, selbst wenn die Folge daraus ist, dass am Ende mehr Menschen tot sind. In solch einem Fall sind Sie verpflichtet zu erklären, warum es (in einem moralisch relevanten Sinne) so bedeutsam ist, dass Sie derjenige sind, der die Handlung des Tötens ausführt oder sie nicht ausführt. Für viele ist es schlimmer, eine Handlung zu vollziehen, die den Tod eines Menschen verursacht, als ihn durch eine unterlassene Handlung sterben zu lassen. Aber ob ich mich entscheide zu handeln oder mich entscheide, nicht zu handeln – es ist und bleibt eine Entscheidung. Insofern ist keineswegs klar, dass „nichts tun“ in einem moralischen Sinne gleichwertig ist mit „nichts Falsches tun“: Die eigenen Kinder einfach nicht mehr ernähren und langsam verhungern lassen, mag moralisch ebenso verwerflich sein wie sie in der Badewanne zu ertränken. Gleichermaßen mag man in der EuthanasieDebatte nur schwer einen moralisch relevanten Unterschied zu erkennen zwischen einer bewussten Handlung (dem Verabrei-

chen sterbefördernder Medikamente) und einer bewussten Unterlassung (der Nichtverabreichung lebensverlängernder Medikamente). Um diese eher wackelige Handlungs- und Unterlassungslehre zu bekräftigen, wird häufig eine weitere Idee ins Feld geführt: das Prinzip der Doppelwirkung, das darauf beruht, die beabsichtigten Folgen einer Handlung von nur absehbaren Folgen zu unterscheiden. Eine Handlung, die sowohl positive als auch negative Folgen hat, mag insofern moralisch gerechtfertigt sein, wenn sie in der Absicht vollzogen wurde, positive Ergebnisse zu erbringen, während die negativen zwar vorhersehbar aber nicht beabsichtigt waren. Beispielsweise mag es bekannt sein, dass die Gabe von Schmerzmitteln an einen tödlich erkrankten Patienten, dessen Tod beschleunigt. Doch solange diese Folge unbeabsichtigt ist – denn die Absicht ist lediglich, ihm die Schmerzen zu erleichtern –, mag die Handlung jedoch moralisch vertretbar sein. Das Prinzip steht und fällt mit der Unterscheidung zwischen Absicht und Voraussicht; ob diese Unterscheidung das Gewicht tragen kann, das ihr das Prinzip des Doppeleffekts auflastet, ist eine viel diskutierte Frage.

Pflicht Die Genialität der Kant’schen Morallehre besteht darin, wie er von einer rein rationalen Struktur, die durch den Kategorischen Imperativ auferlegt wird, zum eigentlichen moralischen Inhalt gelangt – um zu erklären, wie die „reine Vernunft“, frei von Neigungen oder Begierden, den Willen eines moralisch Handelnden durchdringen und leiten kann. Die Lösung findet Kant im inneren Wert der moralischen Handlungskompetenz selbst – einem Wert, der basiert auf dem „einzigen und höchsten Moralprinzip“, der Freiheit oder Autonomie des Willens, der Gesetzen gehorcht, die er sich selbst auferlegt. Die hohe Bedeutung, die autonom Handelnden, die ihrem freien Willen folgen, zukommt, findet Ausdruck in der vielleicht berühmtesten Formulierung des Kategorischen Imperativs: Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden anderen jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst.

Den unermesslichen Wert der eigenen moralischen Handlungskompetenz zu erkennen, impliziert notwendigerweise auch die Achtung und Wertschätzung der Handlungskompetenz der Anderen. Andere bloß als ein Mittel zum eigenen Zweck zu betrachten, um die eigenen Interessen voranzubringen, untergräbt deren Handlungskompetenz oder macht sie gar zunichte. So stehen Prinzipien (Maximen), die eigennützig oder anderen schädlich sind, im Widerspruch zu dieser Formulierung des Kategorischen Imperativs und taugen nicht als moralische Gesetze. Im Wesentlichen liegt darin die Erkenntnis, dass es Grundrechte gibt, die allen Menschen bedingt durch ihr Menschsein zu eigen sind und nicht zunichte gemacht werden dürfen; und es daher Pflichten gibt, denen zu gehorchen ist, komme, was wolle.



Und wenn es keinen Glauben gibt, wie kann es dann Pflicht geben? Benjamin Disraeli, 1847



Worum Du sollst nicht … –es umgeht jeden Preis?

95

96

Politik

24 Utopie Der österreichisch-britische Philosoph Karl Popper hat einmal gesagt: „Der Versuch den Himmel auf Erden zu verwirklichen, produzierte stets die Hölle.“ An Visionären, Mystikern und anderen Sonderlingen, die schöne neue Welten beschworen und Hoffnungen wie Verrücktheiten gleichermaßen verbreiteten, fehlte es mindestens seit Platon nie. Doch hatten die meisten dieser irdischen Paradiese nie viel Aussicht auf ein Bestehen außerhalb der Köpfe ihrer Schöpfer, und die wenigen, die sich verwirklicht haben, haben Poppers Überzeugung von der menschlichen Fähigkeit, Träume in Albträume zu verwandeln, eher bestätigt. Etwas heutzutage „utopisch“ zu nennen, beinhaltet im Allgemeinen, dass die fraglichen Pläne und Vorstellungen sowohl idealistisch als auch unausführbar sind. Die subtilen Bedeutungsinhalte, die dem Begriff „Utopie“ zugeordnet werden, waren durchaus beabsichtigt von dem Mann, der ihn einst geprägt hat – der englische Gelehrte und Staatsmann Sir Thomas Morus. Zu Beginn seines 1516 erschienenen Romans mit dem Titel Utopia, den er auf Lateinisch verfasst hat, findet sich ein kurzer Vers, der erklärt, dass der von ihm beschriebene Idealstaat namens Utopia („NichtOrt“) sehr wohl auch den Namen Eutopia („Gut-Ort“) tragen könnte. Morus’ imaginäre Insel ist ein humanistisches Paradies, eine proto-kommunistische Gesellschaft, wo alle alles gemeinsam besitzen und Männer und Frauen harmonisch und gleichgestellt zusammenleben; wo religiöse Intoleranz verbannt und gesellschaftliche Erziehung vom Staat übernommen wird; wo Gold wertlos ist und der Herstellung von Nachttöpfen dient. Stimmen am Rande In seinen Betrachtungen über die beste Regierungsform, zeichnet Morus ein Bild, das in einem klaren, obgleich schiefen Kontrast steht zur zeitgenössischen politischen Situation im eigenen Land und im christlichen Europa insgesamt, das von Gier und Eigeninteressen getrieben und tief gespalten war. Dem Beispiel Morus’ folgend, nutzten spätere Schreiber den utopistischen Roman als ein literarisches Vehikel, um der Gesellschaft ihrer Zeit einen kritischen Spiegel vorzuhalten, ohne gefährlichen Autoritäten offen entgegenzutreten.

Zeitleiste ca. 375 v. Chr.

1516

1649

1868

Platon beschreibt seinen Idealstaat (Der Staat)

Thomas Morus prägt den Begriff „Utopie“

„Digger“-Kommunen gründen sich nach dem Englischen Bürgerkrieg

J. S. Mills prägt den Begriff „Dystopie“

Utopie



Ohne die Utopien früherer Zeiten würden die Menschen noch immer nackt und elend in ihren Höhlen sitzen … Aus hehren Träumen erwachsen positive Realitäten. Utopie ist das Prinzip allen Fortschritts, und der Entwurf für eine bessere Zukunft. Anatole France, ca. 1900



In seinem post-marxistischen Werk Ideologie und Utopie (1929) bringt der aus Ungarn stammende Soziologe Karl Mannheim vor, dass utopische Ideen insbesondere bei sozial nieder gestellten Gruppen und Klassen Anklang finden, weil sie die Möglichkeit einer gesellschaftlichen Verbesserung eröffnen. Höher gestellte Gruppen hingegen neigen dazu, an Ideologien festzuhalten, die bestehende Zustände fördern und bewahren. Mit anderen Worten: All jene, die unter bestehenden Missständen am meisten leiden, können mit sozialen Reformen am meisten gewinnen – und, wie die Engländer sagen, Truthähne stimmen nicht für Weihnachten. In der Vergangenheit waren es demnach häufig politische Randfiguren, die innerhalb der etablierten Strukturen keine Stimme fanden, die recht lautstark für die Rea-

Entwurf für eine bessere Zukunft Unter den Intellektuellen von heute ist der Utopismus nicht gerade en vogue. Ein Kritikpunkt an Utopien, seien es literarische oder andere, ist der, dass sie statisch und leblos sind. Im Gegensatz zur realen Welt (und im Gegensatz zu ihren dunklen Vettern, den Dystopien) fehlt es den Utopien an Leidenschaft und Konfliktdramen; allzu oft sind es nur tote Strukturen, zusammenfantasiert von Politikern und Ökonomen. Kurzum, Utopien bieten die Langeweile der Perfektion – Welten, ohne die Fehler und Schwächen, die menschliches Interesse erregen. Im 19. Jahrhundert jedoch, der Blütezeit des utopischen Optimismus, da die Suche nach Utopien als Schlüssel zum Fort-

schritt verstanden wurde, war eine ganz andere Sicht weit verbreitet. Der Sozialismus und die Seele des Menschen (1891) ist ein Essay von Oscar Wilde, mit dem er in heiterer Zuversicht für eine sozialistische Welt plädiert, wo alle Mühen der Arbeit durch ungefährliche Anwendungen der Technologie beseitigt sind: „Eine Weltkarte, auf der Utopia nicht verzeichnet ist, ist noch nicht einmal eines flüchtigen Blickes wert, denn auf ihr fehlt das einzige Land, wo die Menschheit immer landet. Und wenn die Menschheit dort landet, hält sie Ausschau, und wenn sie ein besseres Land sieht, setzt sie die Segel. Fortschritt ist die Verwirklichung von Utopien.“

1880

1890

1932

1949

Ein Rückblick aus dem Jahre 2000 auf das Jahr 1887 von Edward Bellamy wird veröffentlicht

Kunde von Nirgendwo von William Morris wird veröffentlicht

Schöne neue Welt von Aldous Huxley erscheint

1984 von George Orwell erscheint

97

98

Politik lisierung utopischer Pläne kämpften. Viele Utopisten führen gesellschaftliche Übel auf eine ungleiche Verteilung von Reichtum zurück, die sie verantwortlich machen für Gier, Neid und soziale Unruhe. Von daher sehen sie genau wie Morus die Lösung darin, soziale Unterschiede zu beseitigen und stattdessen ein wie auch immer geartetes egalitäres, kommunistisches System einzuführen. Von der Hoffnung zur Angst Das 19. Jahrhundert erlebte einen Enthusiasmus für utopische Ideen, angefacht vom atemberaubenden Fortschritt der Wissenschaft. Auch wenn das Klima im Großen und Ganzen optimistisch war und das Patentrezept Sozialismus hieß, gab es nichtsdestotrotz ein breites Spektrum von wiedergegebenen Ansichten. Der US-amerikanische Science-Fiction-Autor Edward Bellamy etwa lässt in seinem Roman von 1888 Ein Rückblick aus dem Jahre 2000 auf das Jahr 1887 seinen Helden nach langem Schlaf im Jahr 2000 erwachen in einer Welt, die klassenlos und egalitär, aber stark industrialisiert und bürokratisch ist. Entsetzt über Bellamys technokratische Vision, liefert der englische Sozialist, Künstler und Autor William Morris mit Kunde von Nirgendwo (News from Nowhere, 1890) einen Gegenentwurf, der ein ländliches, vom Industriedreck gesäubertes Idyll beschreibt, wo Männer und Frauen frei und gleichberechtigt leben. Erste Anzeichen von Angst, die sich angesichts des gnadenlosen Fortschritts der Wissenschaft langsam breit machen und die in Morris` Werk an die Oberfläche zu kommen beginnen, verstärken sich in den ersten Jahrzehnten des 20. Jahrhunderts. Während die Gruppe der Viktorianer zuversichtlich war und sich Utopien ausdachte mit egalitären Gesellschaftsformen, die alle Menschen einschließen, war die Gruppe der Edwardianer voller Angst und ersann Utopien mit elitären, exklusiven Gesellschaftsformen. Für Futuristen wie zum Beispiel den Romanschriftsteller und Pionier der Science-Fiction-Literatur H. G. Wells ging es nun weniger darum, die Welt zu einem besseren und lebenswerteren Ort zu machen, als vielmehr darum, den Menschen besser und würdiger für diese Welt zu machen. Die Ängste, die das gesittete Volk überkam angesichts der „Menschen am sozialen Abgrund“ oder einer stetig größer werdenden und verarmenden Arbeiterschicht, fiel zusammen mit dem Aufkommen neuer Platons eiserne Faust Utopien hat es immer schon gegeben, lange vor Thomas Morus’ Zeit, der den Begriff geprägt hat. Die früheste und einflussreichste ist Platons Werk Der Staat, das ebenfalls unheilvoll einen frühen Maßstab für Abscheulichkeiten in imaginären Gesellschaften setzt. Der von Platon gedachte ideale Staat ist extrem autoritär, mit einer philoso-

phisch gebildeten Elite, den Herrschern, die allein über wahres Wissen verfügen und die absolute Kontrolle über die unaufgeklärte Mehrheit haben. Eine strikte Zensur soll den Umlauf falscher Ideen verhindern, und eine eugenische Politik soll sicherstellen, dass sich ausschließlich die richtigen Menschen fortpflanzen.

Utopie



„Wissenschaften“, die fertige Lösungen zu versprechen Der menschliche Geist ist schienen. Der Sozialdarwinismus (die grauenhafte Vergenug inspiriert, wenn es darum zerrung der Darwin’schen Ideen) brachte vor, dass die Schwachen und Verwundbaren einer Gesellschaft durch geht Grauen zu erfinden; aber einen natürlichen Selektionsprozess ausgemerzt werden wenn er versucht den Himmel zu könnten und sollten; anders ausgedrückt, man könnte erfinden, gibt er sich plump. sie auch sich selbst überlassen, während die WohlEvelyn Waugh, 1942 habenderen getrost zusehen. Zur gleichen Zeit war das erklärte Ziel der Eugenik, mit initiativen Vorstößen die menschlichen (Erb-)Anlagen mit allen Mitteln – inklusive Zwangssterilisation – zu verbessern und zu säubern. „Das Problem mit den himmlischen Königreichen auf Erden besteht darin, dass sie der Vergänglichkeit unterliegen und ihr fauler Zauber dann vor aller Augen sichtbar wird.“ Die schreckliche Wahrheit in diesen Worten des britischen Journalisten Malcolm Muggeridge zeigte sich in den Jahrzehnten nach dem Ersten Weltkrieg. Das Grauen einer verdrehten Eugenik und Gesellschaftsplanung wurde offenbar im teutonischen Albtraum der „Rassenhygiene“ im Deutschland der Nazi-Zeit. Und die kommunistische Utopie von Marx und Engels wurde in den Gulags von Stalins Russland und mit der Kulturrevolution in Maos China zur grausamen Wirklichkeit. Ein positives Vermächtnis dieser totalitären Perversionen sind die beiden großen dystopischen Romane, die zu Klassikern des 20. Jahrhunderts wurden: In Schöne neue Welt (1932) von Aldous Huxley wird gesellschaftliche Stabilität erreicht auf Kosten einer durch Drogen und Gehirnwäschen ruhig gestellten Existenz innerhalb eines eugenisch manipulierten Kastensystems. Und in 1984 zeichnet George Orwell (1949) einen totalitären Albtraum: „Willst du ein Bild der Zukunft sehen, dann stell dir vor wie ein Stiefel einem Menschen aufs Gesicht stampft – für immer.“



Die „Diggers“ Zeiten extremer sozialer Unruhen sind für utopische Reformer äußerst ersprießlich – so auch die Zeit des englischen Bürgerkriegs und die Ereignisse unmittelbar danach. Unter etlichen radikalen Gruppierungen hob sich insbesondere eine ab: Die Diggers, oder True Levellers, deren visionärer Führer, Gerrard Winstanley, die Idee verbreitete, dass Gottes Erde „Gemeingut“ sei, und die Besitzstände eine Folge des Sündenfalls –

eine de facto kommunistische Utopie. Fest entschlossen, sich das Recht auf ein gemeinschaftliches Land zu nehmen, begann eine Gruppe von Diggern im April 1649 am St. George’s Hill in Surrey mit Umgrabungen, woraufhin sich allerorten weitere DiggerKolonien bildeten. Die jedoch währten allesamt nur kurz, da sie von Autoritäten und erzürnten lokalen Landbesitzern mit roher Gewalt zerschlagen wurden.

Worum es geht Himmel oder Hölle auf Erden

99

100

Politik

25 Liberalismus „Wenn wir heute in die Zeit der Revolution zurückversetzt würden, dann wären die sogenannten Konservativen die Liberalen und die Liberalen die Tories.“ Ronald Reagan ist von allen US-Präsidenten des 20. Jahrhunderts wohl am ehesten der, der erbleichen dürfte, würde man ihn als liberal bezeichnen. Dennoch war er es, der in einem Interview, das 1975 veröffentlicht wurde, diese scharfsinnige Bemerkung über die komplexe und verzahnte Geschichte der beiden weltweit einflussreichsten politischen Ideologien machte – den Konservatismus und den Liberalismus. Die Definition, die Reagan im Weiteren dazu gibt – „der Drang nach weniger staatlicher Einflussnahme, weniger zentraler Autorität und mehr individueller Freiheit“ –, klingt wie die Zusammenfassung aus einem Lehrbuch für Klassischen Liberalismus, nach seiner Ansicht war es aber auch die „Grundlage des Konservatismus“. Wie können zwei Ideologien, die heute als polare Gegensätze gelten (und das vor allem in den USA), in einem Atemzug genannt werden von einem Mann, der heute von der konservativen Rechten in den USA als Halbgott verehrt wird? Des Rätsels Lösung findet sich in erster Linie in der ganz eigenen Geschichte des Liberalismus. Der Liberalismus war sowohl in seiner klassischen als auch in seiner modernen Ausprägung konsequent auf eine einzige, wenn auch komplexe Idee ausgerichtet: die Bedeutung der Individuen als vernünftig handelnde Menschen und der Verteidigung ihrer Freiheit und Freiheiten gegenüber der staatlichen Gewalt. Um dieses Leitziel zu erreichen, vollzogen die Liberalen im Laufe ihrer Geschichte jedoch eine drastische Kehrtwende in der Wahl ihrer Mittel. Anfänglich bestand Zweifel an der Fähigkeit des Staates, seine Befugnisse und Gewalten verantwortungsvoll zu nutzen, was zu der Forderung führte, den Handlungsrahmen der Regie-



Je liberaler der Mensch wird, desto eher ist er geneigt zu erlauben, dass alle diejenigen, die sich als würdige Mitglieder der Gemeinschaft führen, in gleicher Weise das Recht auf Schutz der staatlichen Regierung haben. George Washington, 1790

Zeitleiste



1651

1688

1690

1775–1783

1776

In Leviathan argumentiert Hobbes, dass ein souveräner Machthaber nur mit Zustimmung des Volkes regiert

Die „Glorreiche Revolution“ bringt die konstitutionelle Monarchie nach England

Zwei Abhandlungen über die Regierung von John Locke wird veröffentlicht

Die Amerikanische Revolution kämpft für „Leben, Freiheit u. das Streben nach Glück“

In Wohlstand der Nationen argumentiert Adam Smith für den freien Handel

Liberalismus rungsgewalt streng zu begrenzen, insbesondere im Bereich des Handels und der Wirtschaft. Später, als klar wurde, dass uneingeschränkte wirtschaftliche Aktivität Ungleichheiten in der Verteilung von Reichtum erzeugt, die für die bürgerlichen Freiheiten nicht minder bedrohlich waren, propagierten die Liberalen stärker staatlichen Interventionismus: der Handlungsspielraum des Staates sollte ausgeweitet werden und seine Macht wollten sie nutzen, um die Ungleichheiten zu korrigieren. Als die Konservativen begannen, sich Mittel (nicht Zwecke) anzueignen, die von den frühen, klassischen Liberalen unterstützt wurden, wie zum Beispiel freier Handel und minimale staatliche Einmischung, schufen sie den Hintergrund für Reagans unerwartete Bemerkung. Der Klassische Liberalismus Das Aufkommen des Liberalismus als eine politische Doktrin wird gemeinhin als Reaktion auf die Schrecken der religiösen Konflikte gesehen, die im Dreißigjährigen Krieg gipfelten, der in der ersten Hälfte des 17. Jahrhunderts in Europa wütete. Schockiert vom enormen gesellschaftlichen Chaos und menschlichen Leid, verursacht durch jahrzehntelange religiös und dynastisch motivierte Kämpfe, begannen Thomas Hobbes und John Locke über die Grundlagen und die Rechtfertigung der Regierung nachzudenken. Die Macht eines Souveräns, so stimmen beide überein, sei nur gerechtfertigt, wenn sie die Zustimmung der Regierten besitzt, so wie es der Gesellschaftsvertrag zwischen Regierung und Regierten vorsieht, und wenn diese Macht die Freiheit Letzterer nicht ohne Mentalitätsunterschiede Einer der Hauptunterschiede zwischen Konservatismus und Liberalismus, zumindest in den Augen der Viktorianischen Kommentatoren, lag in ihrer Auffassung der menschlichen Natur. Die Konservativen nahmen als gegeben an, dass der Mensch im Grunde schwach und egoistisch sei, und der Zweck des Lebens darin bestünde, die gesellschaftliche Ordnung und Stabilität aufrechtzuerhalten; die Liberalen nahmen als gegeben an, dass der Mensch im Grunde gut und vernünftig sei, und der Zweck des Lebens darin bestünde, das menschliche

Glück zu mehren. Die grundsätzlich optimistische Sicht des Liberalismus auf die menschliche Natur bedeutete, dass dessen Anhänger typischerweise sozial fortschrittlich waren und sich begeisterten für soziale Reformen und Verbesserungen. Die Gegensätzlichkeit der beiden Ideologien brachte William Gladstone, ein großer liberaler Premierminister im Viktorianischen England, einprägsam auf den Punkt: „Liberalismus ist durch Vorsicht gemäßigtes Vertrauen, Konservatismus ist durch Furcht gemildertes Misstrauen der Menschen.“

1789–1799

1859

1933

1979–1980

Die Französische Revolution kämpft für „Freiheit, Gleichheit, Brüderlichkeit“

Über die Freiheit von John Stuart Mill veröffentlicht

Franklin D. Roosevelt startet den New Deal gegen die Auswirkungen der Großen Depression

Mit Margaret Thatcher (1979) und Ronald Reagan (1980) erstarkt die „neo-liberale“ Politik der Neuen Rechten in Großbritannien und den USA

101

102

Politik guten Grund und ohne Zustimmung einschränkt. Lockes Zwei Abhandlungen über die Regierung, erschien 1690, nur zwei Jahre nachdem die „Glorreiche Revolution“ einen konstitutionell eingeschränkten Monarchen auf den englischen Thron gehoben hatte. Diese Abhandlungen lieferten einen Großteil der theoretischen Inspiration für die radikalen Umbrüche im nachfolgenden Jahrhundert – für die Amerikanische und die Französische Revolution. Im Tiegel dieser epochemachenden Ereignisse formte sich ein nie zuvor dagewesenes Gefühl für die enorme Bedeutung des Menschen als Individuum. Nach Jahrhunderten der Unterwürfigkeit gegenüber Königen, Lords oder Priestern taucht das Individuum nun hervor, befreit aus der Umklammerung alter Bräuche und Gewalten. Das Beharren, die Macht des Staates zu beschränken, und der Glaube an die Vernunft des Individuums, formte eines der charakteristischsten Merkmale des Liberalismus aus: die Kombination von Kapitalismus und freiem Handel. Geistiger Vater dieser Kombination war hauptsächlich der schottische Moralphilosoph und Begründer der Nationalökonomie Adam Smith. In seinem Werk Wohlstand der Nationen (1776) wendet Smith sich gegen Eingriffe seitens des Staates und stellt heraus, dass die Energien eines Individuums, das in einem freien Markt agiert und rational seine eigenen Interessen verfolgt, unweigerlich das Gemeinwohl fördern, und zwar allein aus der Tatsache heraus, dass den eigenen Interessen zu dienen, in einer Tauschwirtschaft ebenso verlangt, den Interessen der anderen zu dienen. Ein System, in dem Käufer und Verkäufer in freiem Wettbewerb agieren, so Smith, sei selbstregulierend, demzufolge so effizient wie möglich und optimal ausgelegt, um Reichtum für alle zu erzeugen. Der Klassische Liberalismus erreichte seinen Höhepunkt im Laufe des 19. Jahrhunderts, als die großen utilitaristischen Philosophen Jeremy Bentham und John Stuart Mill die Prinzipien der freien Marktwirtschaft, die sie von Smith gelernt hatten – insbesondere die Rolle der freien Wahl und des aufgeklärten Eigeninteresses –, auch auf den politischen Bereich anwendeten. Sie entwickelten ein ausgefeiltes System individueller Rechte, das bis heute Kernstück des modernen liberalen Denkens ist. Bis zum Ende des Jahrhunderts hatte der Liberalismus das politische Klima in Europa verwandelt, wo nun weitgehend eingeschränkte und konstitutionelle Regierungen herrschten, und wo Industrialisierung und freier Handel langsam begannen, enormen Reichtum zu erzeugen. Der Neue Liberalismus Adam Smith hatte selbst vorhergesehen, dass eine uneingeschränkte freie Marktwirtschaft zu Exzessen führen könne. Und Mill hatte vorgebracht, dass wirtschaftliche Ungleichheiten, die durch kapitalistische Betätigungen erzeugt werden, in irgendeiner Form gebremst werden müssten. Kritisiert wurden die Liberalen seit jeher vor allem wegen ihrer Fixierung auf die Begrenzung der staatlichen Macht, die sie, so die Kritiker, blind gemacht habe für die Auswirkungen privater Macht. Und gegen Ende des 19. Jahrhunderts war klar geworden, dass einfache Menschen von Industriellen und Finanziers geknechtet wurden, die

Liberalismus



große wirtschaftliche und politische Macht ausübten. Der Liberalismus (…) ist die Und eben diese neue Tyrannei einer reaktionären höchste Stufe der freigiebigen Herrschaft des Reichtums war es, gegen die sich WiGroßmut: Er ist das Recht, das derstand regte und die eine Generation von „neuen“ („sozial“ oder „wohlfahrtsstaatlich“ orientierten) Libe- von der Mehrheit den Minderralen gebar. Die neuen Liberalen waren bereit, die heiten verliehen wird, und darum Macht der Regierung auszuweiten, um durch eine Re- der nobelste Ruf, der auf diesem gulierung der Industrien und eine Einführung wirtPlaneten erklungen ist. schaftlicher und steuerlicher Reformen die wirtschaftJosé Ortega y Gasset, 1930 lichen Ungleichheiten zu korrigieren. Zu den herausragendsten Errungenschaften des neuen liberalen Denkens zählen die weitreichenden Maßnahmen für allgemeine Wohlfahrt und soziale Sicherheit, die Präsident Roosevelt mit dem New Deal in den 1930er Jahren auf den Weg gebracht hat. Dieser neue liberale Ansatz blühte auf in den Jahrzehnten beispiellosen wirtschaftlichen Wachstums und Wohlstands, die auf den Zweiten Weltkrieg folgten. Ab den 1970ern jedoch ließ das Vertrauen in den anhaltenden Fortschritt langsam nach und schwand schließlich völlig dahin unter den Auswirkungen der wirtschaftlichen Stagnation, hohen Inflation und wachsenden nationalen Schuldenlast. Als Folge dieses wirtschaftlichen Elends gelangte die „Neue Rechte“ sowohl in den USA als auch in Großbritannien an die Macht. Es war die Stunde von Ronald Reagan und Margaret Thatcher (der „Neo-Liberalen“, wie man sie mitunter betitelte), die sich eifrig anschickten – in der Theorie, wenn auch nicht immer in der Praxis – sich die zentralen Dogmen des klassischen Liberalismus zueigen zu machen: Minimalstaat und freier Handel. Im Wortkrieg der Neuen Rechten wurde der Liberalismus schonungslos verzerrt und karikiert als ein riesiger unkontrollierter, großstaatlicher, „steuerverschleudernder“, „politisch korrekter“ Hokuspokus und der Begriff „liberal“ damit zum Schimpfwort – eine geradezu absurde Situation für ein Land, das verfassungsmäßig und historisch das liberalste ist (in jeglichem Sinne), das je existiert hat. Nichtsdestotrotz brennt das Feuer eines aufgeklärten und fortschrittlichen Liberalismus nach wie vor, wie auch der demokratische Präsidentschaftskandidat John F. Kennedy vor einem halben Jahrhundert mit beredten Worten beteuerte:



Was meinen unsere Gegner, wenn sie uns als „Liberale“ betiteln? Meinen sie mit „Liberaler“ einen …, der in der Auslandspolitik eine weiche Linie fährt, der gegen kommunale Selbstverwaltung ist und den der Dollar des Steuerzahlers nicht kümmert, so zeigt die Bilanz dieser Partei und ihrer Mitglieder, dass wir Liberale keineswegs so sind. Meinen sie mit „Liberaler“ aber einen, der nach vorn schaut und nicht zurück, einen, der neue Ideen begrüßt ohne eine stur verhaltene Reaktion, einen, dem etwas liegt am Wohlergehen des Volkes … dann bin ich stolz zu sagen, ich bin ein „Liberaler“.

Worum esindividuelle geht Freiheit Sozialer Fortschritt und

103

104

Politik

26 Demokratie Es besteht heute quer durch alle politischen Spektren, von links bis rechts, ein außergewöhnlicher und nie dagewesener Konsens, dass die Demokratie als Regierungsform allen anderen Regierungsformen vorzuziehen ist. „Demokratisch“ ist heute in vielen politischen Kontexten ein Synonym für „legitim“. Ein Kuriosum daran ist, dass viele Regierungssysteme, die sich nach dem üblichen Verständnis des Wortes nie und nimmer als „demokratisch“ qualifizieren würden, sich das Wort nichtsdestotrotz auf die Fahnen geschrieben haben. So auch die frühere DDR, die Deutsche Demokratische Republik, ein repressiver und autoritärer Einparteienstaat. Abgesehen von Etikettenschwindeln dieser Art, waren die Demokratisierungsprozesse, die im vergangenen Jahrhundert rund um den Globus stattgefunden hatten, doch sehr beeindruckend. Grobe Schätzungen seitens verschiedener unabhängiger Beobachter stimmen überein, dass im Jahr 2000 in etwa die Hälfte der Weltbevölkerung die Vorzüge politischer Institutionen genossen, die historisch betrachtet in hohem Maße demokratische Herrschaft bieten. Die rasche Ausbreitung der Demokratie im 20. Jahrhundert erklärt sich teilweise durch das eklatante Scheitern von Alternativen. In einer Rede vor dem Unterhaus kurz nach dem Sieg über den Faschismus sprach Winston Churchill die folgenden berühmten Worte: „Die Demokratie ist die schlechteste Staatsform, ausgenommen all diese anderen, die man von Zeit zu Zeit ausprobiert hat.“ Innerhalb eines halben Jahrhunderts war der Erzrivale der Demokratie, der Kommunismus, in Russland und Osteuropa grandios gescheitert. Die Welt zeigt sich derzeit so sehr besessen von der Demokratie, dass man darüber leicht vergisst, wie jung dieses Phänomen eigentlich ist. Noch in den letzten zweieinhalb Jahrtausenden war fast jeder politische Philosoph ganz entschieden gegen die Demokratie, in der Theorie und auch in der Praxis. Die Demokratie sei, so der allgemeine Vorwurf, zu anarchisch und kaum besser als die Herrschaft des Pöbels, während sich die konkrete Kritik darauf kaprizierte, ob das gemeine Volk es überhaupt vermag, an regierungspolitischen Prozessen teilzunehmen. Selbst ein Kritiker wie J. S. Mill, der demokratischen Prinzipien generell sehr zugetan war, äußerte sich nichtsdestotrotz tief besorgt über das „kollektive Mittelmaß“ der Vie-

Zeitleiste 507 v. Chr.

1651

1690

Kleisthenes führt demokratische Reformen in Athen ein

Hobbes diskutiert das Gleichgewicht zwischen Staatsmacht und individueller Freiheit

Locke sieht in der Zustimmung des Volkes die Grundlage der staatlichen Autorität

Demokratie len, „die sich ihre Meinungen [nicht länger] von Würdenträgern aus Staat und Kirche, von vorgeblichen Führern oder von Büchern holen“. H. L. Mencken, amerikanischer Schriftsteller und Satiriker, formulierte dies in den zwanziger Jahren des vergangenen Jahrhunderts etwas markiger: „Demokratie ist ein pathetischer Glaube an die kollektive Weisheit der individuellen Ignoranz.“

105



Demokratie bedeutet einfach nur das Niederknüppeln des Volkes durch das Volk Oscar Wilde, 1891



Griechenland und die direkte Demokratie Scharfe Kritik an der demokratischen Regierungsform reicht bis in ihre Kinderzeit in dem Stadtstaat Athen zurück, der im Allgemeinen als die „Wiege der Demokratie“ gilt. (Das Wort selbst kommt aus der griechischen Sprache und bedeutet „Herrschaft des Volkes“). Das System der Volksherrschaft, das von den Athenern Schritt für Schritt errichtet wurde, stellt die wohl reinste Form einer direkten Demokratie dar, die je realisiert worden ist. Herzstück dieses Systems, das vom athenischen Staatsmann Kleisthenes eingeführt wurde, bildete die Ekklesia, die Volksversammlung, die allen wahlfähigen Bürgern offenstand (allen männlichen Athenern über achtzehn Jahre). Die Ekklesia trat regelmäßig zusammen, um wichtige Staatsangelegenheiten zu besprechen und kam über die Abstimmung per Handzeichen auf Basis der einfachen Mehrheit aller Anwesenden zu Entscheidungen. Ein wahres Loblied auf die Tugenden dieser demokratischen Athener (zumindest nach den Aufzeichnungen des Thukydides) stimmt der attische Führer Perikles in einer Grabrede 430 v. Chr. mit allem Nachdruck an. Er rühmt die Verfassung, die „die Bedürfnisse der Vielen, nicht der Wenigen“ begünstigt und betont die Bedeutung von Freiheit und Gleichheit aller vor dem Gesetz sowie die politische Beförderung auf Basis von Leistung und Verdienst, nicht von Reichtum oder Klasse. Ein solcher Enthusiasmus wurde von den beiden einflussreichsten griechischen Philosophen, Platon und Aristoteles, ausdrücklich nicht geteilt. Beide schrieben im darauffolgenden Jahrhundert, nach der verheerenden Niederlage Athens 404 v. Chr. durch die zutiefst autoritären Spartaner, einem Desaster, das ihre gemeinsame Sichtweise prägte, dass die Demokratie chronisch aufsässig, korrupt und instabil sei. „Demokratie ist eine reizvolle Regierungsform“, kommentierte Platon giftig, „voller Unordnung, die Gleichheit auf Gleiche und Ungleiche gleichermaßen verteilt“. Und nach Aristoteles’ nachhaltiger einflussreicher Klassifikation der politischen Systeme ist die Demokratie die korrupte oder pervertierte Form der „Politie“, einer idealen Einrichtung, in der die Vielen auf das eine Ziel des Gemeinwohls hin regieren. In einer Demokratie hingegen ist es so, dass diejenigen, die die Macht haben (die unteren Gesellschaftsschichten), im eigenen Interesse regieren und deshalb zu

1787

1789–1799

1945

1989

Die US-Verfassung definiert die Mechanismen der demokratischen Regierung

Erste radikale Demokratieformen während der Französischen Revolution

Ende des Zweiten Weltkriegs markiert die Niederlage des Faschismus

Kommunistische Regime in der Sowjetunion und Osteuropa brechen zusammen

106

Politik erwarten steht, dass sie sich den Reichtum und Besitztum der bessergestellten Bürger aneignen. Repräsentative Demokratie Platon und Aristoteles waren sich außerdem darin einig, dass das griechische Modell der direkten Demokratie, zu dem regelmäßige Volksversammlungen und die direkte Teilnahme der Bürger an politischen Prozessen gehörten, nur in kleinen Stadtstaaten wie Athen praktikabel war. Dieses grundlegende Problem – die offensichtliche Unmöglichkeit, ein solches System in einen Staat oder eine Nation mit relativ großem Territorium und hoher Bevölkerungszahl einzugliedern – blieb bis in die Neuzeit hinein ungelöst. Ernsthafte Diskussionen um Demokratie und Volkssouveränität kamen erst ab dem 17. und 18. Jahrhundert wieder auf, als die Denker der Aufklärung neue philosophische Wellen schlugen. 1651, unmittelbar nach dem englischen Bürgerkrieg, warf Thomas Hobbes eine Frage auf, die viele nachfolgenden Theorien über die Demokratie noch beschäftigen sollte: Wie soll die souveräne Macht des Staates, die (unter anderem) legitimiert ist durch die Notwendigkeit, die Rechte des Individuums zu schützen, beschränkt werden, um einem Missbrauch, der eben diese Rechte beschneiden könnte, vorzubeugen? John Locke, der vier Jahrzehnte später schrieb, argumentiert, dass die Übertragung einer solchen Autorität auf die Regierung durch die Regierten und die damit verbundene Einschränkung der eigenen Freiheiten, eben nur mit der Zustimmung der Regierten erfolgen darf. Diskussionen um die rechte Beziehung zwischen Volk und Staat lösen sich somit auf im Streit über das rechte Gleichgewicht zwischen Macht und Recht, zwischen den Ansprüchen des Staates auf der einen und den Rechten des Individuums auf der anderen Seite. Einige sind gleicher … Nur wenige Regierungssysteme vor Beginn des 20. Jahrhunderts, egal welchen Namen sie sich gaben, würden heute als vollwertige Demokratien gelten, einfach und allein aus dem Grund, da die Zahl der Wahlberechtigten so überaus klein und überschaubar war. In Athen, wo Frauen, wohnhafte Ausländer und Sklaven vom wahlberechtigten Volk (demos) ausgeschlossen waren, war nach (zugegeben spekulativen) wissenschaftlichen Schätzungen vielleicht nicht einmal ein Zehntel der Gesamtbevölkerung wahlberechtigt. Im 19. Jahrhundert gab es gar

noch größere Einschränkungen in Großbritannien, wo strenge Besitztumsanforderungen bedeuteten, dass selbst nach dem Great Reform Act von 1832 nur rund sieben Prozent der erwachsenen Bevölkerung wahlberechtigt waren. Erst 1928, als auch alle erwachsenen Frauen zu Wahlen zugelassen waren, war das allgemeine Wahlrecht errungen. In den USA blieben viele Afro-Amerikanern bis zum Civil Rights Act 1964 vom Wahlrecht praktisch (wenn auch nicht gesetzlich) ausgeschlossen.

Demokratie Die Früchte dieser demokratischen Bestrebungen, hart und blutig gewonnen in zwei großen Revolutionen, zuerst in Amerika und dann in Frankreich, reiften schließlich aus in der liberalen Vorstellung einer verfassungsrechtlich verankerten repräsentativen Demokratie. Über die Jahre stetig verfeinert und verbessert, schrieb diese Theorie (die James Mill, der Vater von J. S. Mill, die „große Errungenschaft der Moderne“ nannte) eine Reihe von Mechanismen fest, darunter regelmäßige Wahlen oder den Parteien- und Kandidatenwettbewerb, um sicherzustellen, dass die Regierung den Regierten gegenüber transparent bleibt und Letztere die höchste Autorität und Kontrolle über die politischen Prozessen behalten.

„Die tyrannischste aller Regierungsformen“ Selbst unter den aufgeklärtesten Vertretern der frühen neuzeitlichen Theoretiker war der beherrschende Gedanke der, dass eine Mehrheitsregierung die Rechte der Minderheiten mit Füßen treten könnte. Bereits 1787 reflektiert John Adams, der spätere zweite Präsident der Vereinigten Staaten, die tiefe Sorge der Gründerväter angesichts der potenziellen Möglichkeit, dass alle Regierungsbereiche unter die Kontrolle der Mehrheit fallen könnten: „Zuerst würden die Schulden abgeschafft, die Reichen mit hohen Steuern belastet und keiner sonst, und schließlich würde alles gleich verteilt,

was irgend gefordert oder gewählt werden kann“. Der vierte Präsident, James Madison, schrieb 1833 missbilligend von der „durchgreifenden Denunzierung der Mehrheitsregierungen als der tyrannischsten und unerträglichsten aller Regierungen“. Doch die Macht der Mehrheiten zu begrenzen, war ein Hauptmotiv hinter der Gewaltenteilung und dem ausgeklügelten System der gegenseitigen Kontrolle, hinter den Elementen also, die so vorstehend sind in der Verfassung, für die Madison weitgehend verantwortlich zeichnete.

Worum es geht Das Niederknüppeln des Volkes durch das Volk?

107

108

Politik

27 Konservatismus „Die Wissenschaft der Regierung … so praktisch in sich selbst, und für so praktische Zwecke gedacht – eine Sache, die Erfahrung erfordert, mehr Erfahrung gar, als der Mensch im Leben je gewinnen kann, so klug und aufmerksam er auch sein mag – und man es daher nur mit äußerster Vorsicht wagen sollte, ein Gebäude einzureißen, das seit ewigen Zeiten den gemeinsamen Zwecken der Gesellschaft in jedem erträglichen Maße dient, oder es neu zu errichten, ohne Modelle und Muster bewährter Nützlichkeit vor Augen.“ In seinem Werk Über die Französische Revolution. Betrachtungen und Abhandlungen von 1790 vertritt der irisch-stämmige Politiker und Autor Edward Burke eine politische Perspektive, die in erster Linie „von der Zeit geheiligte Institute und Gesetze“ sowie „die vitale Kraft sozialer Bande, durch Gewohnheit lieb gewonnen“ würdigt (wie Wordsworth später formuliert). Eine Vorliebe für Gepflogenheiten, die in Erfahrung gründen gegenüber abstrakter Theorie; eine Abneigung gegen jeglichen Wandel um des Wandels willen; ein Widerwille Altbewährtes für etwas vermeintlich Besseres aufs Spiel zu setzen. In den nachfolgenden zwei Jahrhunderten definierten diese und andere Vorstellungen eines der wichtigsten Extreme des modernen politischen Denkens – den Konservatismus. Was nicht kaputt ist … Die innere Haltung, dem das konservative Denken entspringt, ist prägnant erfasst in einem Ausspruch, der Viscount Lucius Cary Falkland, einem englischen Staatsmann des 17. Jahrhunderts, zugeschrieben wird: „Wenn es nicht nötig ist, etwas zu verändern, ist es nötig, nichts zu verändern.“ Die besondere Veränderung, die Burke so sehr ein Dorn im Auge war, war die Französische Revolution. 1790, bevor die Revolution in blutige Gräuel versank, bemerkte Burke einen ideologischen Eifer, der die Revolutionäre trieb, eine Leidenschaft, die teilweise inspiriert war von den abstrakten Ideen der Philosophen der Aufklärung, und er sagte künftige Schrecken richtig vorher. Idealistisch, ideologisch und höhnisch gegenüber allem Bestehenden – alle Eigenschaften der Französischen Revolution widerstrebten Burkes konservativer Gesinnung. Burkes Tiraden sind im Grunde genommen ebenso reaktiv wie der Konservatismus ganz allgemein. Die politische Haltung, die Burke ergreift, inspirierte spätere

Zeitleiste 1651

1762

1789–1799

Eigeninteresse ist oberstes Motiv für menschliches Handeln, argumentiert Thomas Hobbes

Vom Gesellschaftsvertrag oder Prinzipien des Staatsrechtes von Jean-Jacques Rousseau wird veröffentlicht

Französische Revolution löst in ganz Europa reaktionäre Angst aus

Konservatismus

Bewahren wollen Die wohl häufigste Kritik am Konservatismus ist die, dass er reaktionär auf der ganzen Linie ist; festgefahren in einer idealisierten Vergangenheit und unwillig, sich an gegenwärtige und künftige Erfordernisse anzupassen. So etwa klagte der Moralist und Kulturkritiker Matthew Arnold im Viktorianischen England, dass „das Prinzip des Konservatismus … zerstört, was er liebt, weil er es nicht verbessern wird.“ In dieser Hinsicht haben sich einige Konservative selbst keinen Gefallen getan, laden vielmehr zu Hohn und Spott ein, wenn sie sich in nostalgischen Launen ergehen. Ein Beispiel dafür aus jüngerer Zeit ist der konservative Premierminister John Major, der 1993 Großbri-

tannien rühmte als ein Land „wo es warmes Bier, ewig grüne Vororte und Hundenarren gibt … und wo alte Jungfern durch den Morgennebel zur Heiligen Kommunion radeln …“ Jedoch ist der wahre Konservatismus weit entfernt davon, reformresistent zu sein, wie Burke unmissverständlich klar stellt: „Es gibt noch etwas anderes als die bloße Alternative zwischen absoluter Zerstörung und das Bestehende unverbessert zu lassen … Die Bereitschaft, Dinge zu bewahren, sowie die Fähigkeit, sie besser zu machen, das wären zusammengenommen das, was ich von einem Staatsmann erwarte. Alles andere wäre der Idee nach trivial und in der Ausführung gefährlich.“

Konservative, die sich gegen soziale und politische Entwicklungen stellten, die den Status quo ihrer Zeit bedrohten. Die aufeinanderfolgenden, vom Prozess der Industrialisierung ausgelösten Wellen liberaler Reformen und sozialer Umbrüche, von denen das 19. Jahrhundert fast durchweg durchzogen war, waren für Konservative eine maßlose Provokation. Einige der Themen, wie das allgemeine Wahlrecht, reichten bis ins 20. Jahrhundert hinein, wo sich konservative Kräfte zunehmend darauf zu konzentrieren begannen, sich der empfundenen Bedrohung durch den Sozialismus und Kommunismus mit aller Macht zu erwehren. Die Demokratie der Toten „Tradition ist die Demokratie der Toten. Tradition heißt, der unbekanntesten aller Klassen – unseren Vorfahren – Stimmen zu geben“, schreibt G. K. Chesterton leicht ironisch. Doch für „tot“ erklärt zu werden, „disqualifiziert zu werden durch einen unglücklichen Zufall namens Tod“, hat für Konservative ganz und gar nichts zu bedeuten. Burke betrachtet die kumulierte Weisheit der Tradition, die nach allgemeiner Auffassung die Gewohnheiten und Gepflogenheiten beinhaltet, die zusammen unsere Kultur bilden, vielmehr als einen Schatz,

1790

1832

1861

1980er

Burke formuliert die erste Grundaussage zu konservativen Werten

In seinem Präludium rühmt Wordsworth den „Genius Burke“

Betrachtungen über die repräsentative Regierung von J. S. Mill

„Reaganomics“ und „Thatcherism“ setzen in den USA und Europa eine neo-liberale Agenda fest

109

110

Politik der ehrfürchtig zur treuhänderischen Verwahrung von einer Generation an die nächste weitergegeben wird. Er stimmt überein mit Hobbes und Rousseau, dass die Gesellschaft auf einem Vertrag beruhe, doch würde dieser Gesellschaftsvertrag nicht befolgt aus Angst vor der absoluten Macht des Staates, sondern weil er dem Wesen nach eine harmonische „Partnerschaft“ sei, „nicht nur zwischen den Lebenden, sondern zwischen ihnen und den Toten und denen, die noch geboren werden“. Der stete Fortschritt der Gesellschaft wird geleitet von dieser kollektiven Weisheit, die die Intelligenz eines jeden Einzelnen zwangsläufig übersteigen muss, und die stets Zurückhaltung empfiehlt, wenn es um gesellschaftlichen Wandel geht. Wie Gladstone später schrieb, teilen Konservative (im Unterschied zu den Liberalen) ein grundlegendes „Misstrauen gegenüber den Menschen, bedingt durch Angst“. Sie sind geneigt zu glauben, dass der Mensch von Natur aus egoistisch ist, gemein und schlecht. Von daher müssen politische und gesellschaftliche Praktiken und Institutionen, die sich durch alle Zeiten bewährt haben – „die schönen Illusionen, die Macht weich und Gehorsam liberal machen“ –, diese zerstörerische Gesinnungen eindämmen. Die Weisheit der Ignoranz Der überzeugte Liberale J. S. Mill bezeichnete die Konservativen 1861 als „die dümmste von allen politischen Parteien“. Die Bemerkung war etwas ungerechtfertigt, insofern er sie auf die allgemeine Tendenz bezog, den eigenen Prinzipien untreu zu sein, eine Angewohnheit, die sie mit anderen politischen Parteien teilten. In einem gewissen Sinne aber sind die Konservativen ungeniert ignorant. So wie Sokrates’ Weisheit in seinem Bewusstsein lag, wie wenig er doch wisse, stehen die Konservativen dem Umfang des menschlichen Wissens bezeichnenderweise stets skeptisch gegenüber. Und dieser Skeptizismus färbt viele ihrer weiteren Anschauungen. Das Festhalten an den Weisheiten der Vergangenheit – der Glaube an den Wert der Erfahrung und des Altbewährten – ergibt sich naturgemäß aus Zweifeln an den Fähigkeiten gegenwärtiger Politikmacher, die wahren Folgen ihres Handelns zu kennen. Wenn man dem Staat nicht zutrauen kann, neue Wege zu beschreiten, ohne viele unvorhergesehene Probleme herbeizuführen, ist die beste Strategie in aller Regel, sich an altbewährten Traditionen auszurichten und den Handlungsrahmen des Staates so weit wie möglich zu begrenzen. Den Staat auf einen Minimalstaat zu beschränken, was von Konservativen seit Generationen befürwortet wird, geht wie von selbst hervor aus der Überzeugung, dass Privatpersonen sowie lokale, autonome Einrichtungen bestens in der Lage seien, Entscheidungen in ihrem eigenen Interesse selbst zu treffen. Nach dieser Ansicht besteht die Aufgabe einer zentralen



Das konservative Ideal von Freiheit und Fortschritt: Jeder hat die ungehinderte Chance, genau dort stehen zu bleiben, wo er gerade steht. Geoffrey Madan, 1895–1947



Konservatismus

Ein politisches Chamäleon Da der Konservatismus eine im Grunde reaktive Geisteshaltung darstellt, ist die konservative Politik in gewissem Maße unausbleiblich festgelegt und bestimmt durch die Dinge, denen sie entgegenwirkt. Aus diesem Grund hat sich die Palette der Ideen, die man mit dem Konservatismus verbindet, im Laufe der Zeit enorm verändert. In der jüngeren Zeit stieß die konservative Fixierung auf das Thema der freien Marktwirtschaft viele Kommentatoren vor den Kopf. Aber die stark neo-liberale Politik der Ära Reagan/Thatcher in den 1980er Jahren, bei

der freie Märkte, Deregulierung und Minimalstaat ganz oben auf der Agenda standen, waren eine klassische konservative Reaktion auf die verschwenderische und kostspielige Wohlfahrtspolitik davor. In gleicher Weise war die offensichtlich seltsame Kopplung der „Reaganomics“ (wirtschaftlich war staatliche Zurückhaltung angesagt) an einen extremen gesellschaftlichen Konservatismus (moralisch wurde auf staatliche Einflussnahme gesetzt) eine typische Reaktion auf die Gegenkultur der Jugend, die sich in den 1960er breitgemacht hatte.

Regierung (als Diener des Volkes, nicht als deren Herr) nurmehr darin, einen entsprechenden Gesetzes- und Sicherheitsrahmen bereitzustellen, um einzelnen Personen und lokalen Organen die Freiheit und den Raum zu bieten, eigene Entscheidungen treffen zu können. Der vielleicht offensichtlichste Unterschied zwischen Konservativen auf der einen und Sozialisten und Liberalen auf der anderen Seite ist der Glauben, den sie jeweils in die Realisierbarkeit sozialer Verbesserungen setzen. Große Pläne, konzipiert, die Übel und Missstände der Gesellschaft zu heilen, sind (laut Burke) „flüchtige Fantasien“, zusammengeträumt von utopischen Rationalisten, die die Lehren aus der Vergangenheit in heller Begeisterung für die eigenen Abstraktionen kurzerhand beiseite werfen. Konservative sind zutiefst misstrauisch gegenüber solchen sozialen Wundermitteln, die nach ihrem Dafürhalten auf der unverbürgten Annahme der Perfektionierbarkeit der Menschheit gründen. Diese (in den Augen ihrer Gegner) zynische und defätistische Einstellung führte zu der Kritik, die Konservativen zeigten Verachtung für menschliche Anstrengungen und Bestrebungen. Aber wahrscheinlich verweist der Konservative in seiner Antwort darauf, wie häufig nach dem Zeugnis der Geschichte die Hölle über mit guten Absichten gepflasterten Straßen erreicht wurde. Oder, wie Ambrose Bierce 1906 in seinem Werk Des Teufels Wörterbuch bemerkt: „Ein konservativer Staatsmann ist einer, der in bestehende Mängel verliebt ist, während der liberale sie durch neue Mängel ersetzen möchte.“

Worum esund geht Festhalten am Alten Bewährten

111

112

Politik

28 Imperialismus Obgleich der Begriff selbst von relativ neuer Prägung ist, ist der Imperialismus – die Praktik der stärkeren Staaten, die Kontrolle über schwächere beständig auszudehnen und sie auszubeuten –, an sich so alt wie die Geschichte. Erzählungen von alten Kulturen Mesopotamiens oder in Gegenden rund um das Mittelmeerbecken lesen sich wie eine lange Liste imperialer Herrschaften. Es gab die ausgedehnten Reiche der Babylonier und Assyrer, das Perserreich unter Kyros dem Großen oder das riesige Makedonische Reich von Alexander dem Großen … All diese mächtigen Reiche jedoch erlagen im Laufe der Zeit nach und nach einer Herrschaft, die zu einer der größten und am längsten bestehenden aller Reiche werden sollte – dem Imperium Romanum, dem Römischen Reich, das sich auf seinem Höhepunkt von Britannien bis Nordafrika und den Mittleren Osten erstreckte.

In Anbetracht dieser lang anhaltenden Bedeutung des Römischen Reiches, ist es recht naheliegend, dass der Begriff „Imperialismus“ abgeleitet ist vom lateinischen Wort imperium, was in der Grundbedeutung soviel heißt wie die „Macht zu herrschen/Befehlsgewalt“ und sich auf die Amtsmacht/Amtsgewalt entweder eines zivilen Magistrats oder eines Militärbefehlshabers beziehen konnte. Und dies ist ebenfalls naheliegend, da der Kern des Imperialismus in all seinen Formen eines ist: Macht. Macht, die in einem unausgewogenen Verhältnis steht, da ein Staat seine Kontrolle oder seinen Einfluss, direkt oder indirekt, auf einen anderen ausübt. Die Geschichte hat immer wieder gezeigt, dass es Völkern, die bestrebt waren, ihre militärische oder wie auch immer geartete Macht auf ein Nachbarland auszudehnen, nur darum ging es auszubeuten, um eigene Interessen durchzusetzen. Zu allem Übel wird eine solche physische Überlegenheit häufig durch die Brille der ethnischen und kulturellen „Andersartigkeit“ gesehen, um obendrein ein moralisches Überlegenheitsgefühl zu erzeugen, mit dem sich jede noch so schamlose Brutalität und Ausbeutung leichthin rechtfertigen lässt. Nackt und unverfroren Heute wird der Begriff „Imperialismus“ fast ausschließlich im negativen Sinne gebraucht, meist von unterdrückten Völkern oder

Zeitleiste Mitte

6. Jh. v. Chr.

Gründung des Perserreiches unter Kyros dem Großen

478–404 v. Chr.

336–323 v. Chr.

ab

Aus dem griechischen Staatenbund gegen die Perser erwächst das Athenische Reich

Alexander der Große von Makedonien erobert ein weites Reich bis nach Indien

Rom erweitert seine Macht über Italien hinaus (Beginn des Römischen Reiches)

3. Jh. v. Chr.

Imperialismus

Von Sklaven und Pudeln Zur Einsicht gelangt durch den endgültigen Rückzug der US-Streitkräfte aus Vietnam 1975 setzten nachfolgende US-Regierungen auf eine Reihe weniger offizieller Mittel, um sicherzustellen, dass der amerikanische Einfluss auch weiterhin rund um die Welt spürbar bleibt. Der Wirtschaft des Landes gelang dabei ein besonders gelungener Schlag, der es den Politikmachern ermöglichte, die Botschaft von Freiheit (und freiem Handel) und Demokratie (und Anti-Kommunismus) zu verbreiten, indem sie mit riesigen Profithappen in Form von amerikanischen Kapitalanlagen und Anleihen lockten. Die sichtbaren Symptome der globalen USWirtschaft und kulturellen Unterwanderung zeigten sich in riesigen Werbe- und Reklametafeln, die überall auf der Welt zu sprießen begannen, mit freundlicher Genehmigung von McDonalds und Coca-Cola. Den Kritikern der amerikanischen Außenpolitik reichten derlei inoffizielle Methoden durchaus, um die Anklage des amerikanischen Imperialismus (oder Neo-Imperialismus) aufrechtzuerhalten. Doch erst 2001, unmittelbar nach den Terroranschlägen vom 11. September, sollten die angegrauten

Laken endgültig abgezogen werden und die amerikanische imperiale Maschinerie in voller Größe zum Vorschein bringen. Natürlich gab es seitens der Neokonservativen in Washington offizielle Dementis („Wir machen nicht in Imperialismus“, empörte sich USVerteidigungsminister Donald Rumsfeld). Doch die Wahrheit war offensichtlich, für George Bushs Feinde und für seine Alliierten gleichermaßen, als der „Krieg gegen den Terror“ zuerst in Afghanistan und dann im Irak losschlug. Der spätere britische Premierminister Harold Macmillan muss wohl eine gute Ahnung gehabt haben, als er während des Zweiten Weltkrieges den Lauf der Dinge kommen sah: „Wir … sind die Griechen in diesem amerikanischen Reich. … Wir müssen das Alliierte Hauptquartier so führen wie die griechischen Sklaven die Geschäfte des Kaisers Claudius führten.“ Doch erst in den frühen Jahren des 21. Jahrhunderts wurde der ganze Sinn dieser Worte sowie das höchst asymmetrische „besondere Verhältnis“, auf das sie weisen, den britischen Machthabern und vor allem Bushs „Pudel“, dem viel gescholtenen britischen Premierminister Tony Blair, so richtig klar.

Staaten, um die Politik ihrer Unterdrücker anzuprangern. Vor dem 20. Jahrhundert jedoch waren imperialistische Aktivitäten fast immer eine Sache von Nationalstolz, und keine der Beschämung oder Schande. So mag es kaum Wunder nehmen, dass faschistische Führer wie Hitler oder Mussolini ihre imperialen Ausdehnungen triumphal in alle Welt hinausposaunten. Für sie war die imperiale Herrschaft Teil der natürlichen Ordnung, menschliches

15.–19. Jh.

1880er–1914

1920er–1945

ab 2001

Europäische Kolonisation des amerikanischen Kontinents, Indien etc.

Die „Gier nach Afrika“ treibt europäische Mächte zum Wettlauf um afrikanische Gebiete

Faschistische Diktatoren leiten eine neue Phase von aggressivem Imperialismus ein

Mit dem „Krieg gegen den Terror“ beginnt eine neue Phase des amerikanischen Imperialismus

113

114

Politik Schicksal, dass die Starken über die Schwachen herrschen. Sehr viel erschütternder aber ist, dass diese Unmenschen der Moderne sich einer Zeile bedienten, die sich über so vielgeehrte Figuren wie de Tocqueville, Francis Bacon und Machiavelli bis zur „Wiege der Menschheit“ zurückverfolgen lässt, bis ins Jahr 432 v. Chr. Kurz vor Ausbruch des Peloponnesischen Krieges, erzählt der griechische Historiker Thucydides, wie eine Delegation von Athenern ein Gremium der Spartaner zu überzeugen suchte, den Krieg abzuwenden. Zur Begründung ihrer imperialen Herrschaft über andere Griechenvölker berief sie sich darauf, dass sie lediglich täte, was jeder andere an ihrer Stelle ebenfalls tun würde: „dass es schon immer so gewesen sei, dass der Stärkere über den Schwächeren herrscht“. Nach ihrer Sicht hat Gerechtigkeit „noch keinen abgeschreckt, sich gewaltsam so viel zu nehmen wie er kann“. Politischer Vorteil und Macht sind die einzigen maßgeblichen Erwägungen. Daran schien sich auch in den folgenden 2.500 Jahren nicht viel zu ändern. Von 1880 bis 1914 suchten Großbritannien, Deutschland und andere europäische Mächte ihre imperialen Besitzungen in einer „fieberhaften Gier nach Afrika“ auszuweiten, bis der Erste Weltkrieg dann diesen „hurrapatriotischen“ Ambitionen ein chaotisches Ende bereitet hat. Diese Gier war von einer solchen Kraft getrieben, dass bis 1914 grob vier Fünftel der gesamten Landfläche der Erde unter der Herrschaft einer Handvoll kolonialer Mächte stand, zu denen mittlerweile auch Japan und die USA gehörten. In dieser ganzen Zeit war der Ton der Imperialisten von einer grandiosen Unverfrorenheit, athenisch geradezu in allem außer dem Mangel an Offenheit. Der ehemalige britische Premierminister und Verfechter des sogenannten „liberalen Imperialismus“, Lord Rosebery, sagte 1899 in einer Rede, dass koloniale Aktivitäten eine natürliche Ausdehnung von allgemeinem Nationalismus seien: „Vernünftiger Imperialismus“, so erklärte er, „im Unterschied zu dem, wie ich ihn nennen will, ‚wilden‘ Imperialismus, ist nichts weiter als ein großflächiger Patriotismus“. Im Die höchste Stufe des Kapitalismus Die Voraussetzungen des Imperialismus mussten im Verlauf des Ersten Weltkriegs heftige Schläge einstecken und wurden unmittelbar danach von einem wahren Kanonenfeuer kommunistischer Rhetorik getroffen. In einem Pamphlet von 1917 perfektioniert Lenin die marxistische Interpretation des Imperialismus gekonnt. Imperialismus sei, so argumentiert er, die unvermeidbar „höchste Stufe“ des Kapitalismus, die nur durch eine Revolution bezwungen werden könne. Diese Stufe markiere den kritischen

Punkt, an dem sinkende inländische Gewinnraten vollständig industrialisierte, kapitalistische Wirtschaftsordnungen zwängen, im Wettbewerb mit anderen kapitalistischen Staaten, neue Überseemärkte für ihre Überproduktion zu erschließen. Nicht zuletzt bedingt durch die marxistische Kritik ist „Imperialismus“ heute ein Ausdruck der Missbilligung, und zwar nicht nur in der kommunistischen Propaganda, sondern auch im Munde betroffener Politiker in post-kolonialen Staaten.

Imperialismus gleichen Jahr bringt J. L. Walton, der für die Contemporary Review schreibt, den uneingeschränkten Triumphalismus seiner Zeit auf den Punkt: „Der Imperialist empfindet einen tiefen Stolz für das prachtvolle Erbe eines Reiches, gewonnen durch den Mut und die Kraft seiner Ahnen, ihm zur treuhänderischen Verwaltung vermacht.“ Des Weißen Mannes Bürde Waltons Anspielung auf die Bürde des „ererbten Reiches“ beschwört eine imperialistische Haltung, die sich seit Anbruch der neuzeitlichen Ära der europäischen Kolonisation im 15. Jahrhundert vage zeigte, und bis Mitte des 19. Jahrhunderts mehr oder weniger zu einer orthodoxen Linie geworden war. Die vermeintlichen „Tugenden des Reiches“ wurden vorgetragen in einem Gedicht von Rudyard Kipling, das unmittelbar nach seiner Veröffentlichung 1899 für heftige Debatten sorgte. Indem Kipling den Leser drängt, „Nehmt auf euch des Weißen Mannes Bürde … der Notdurft eurer Gefangenen zu dienen“, deutet er zweierlei an: zum einen, dass das Geschäft des Imperialismus eine Berufung sei, von den Kolonialmächten pflichtgemäß angenommen; zum anderen, dass die Folgen für die unterworfenen Völker, die er herablassend betitelt als „die halb noch Kinder sind, halb Teufel“, prinzipiell segensreich seien. Der Mythos der „zivilisatorischen Mission“ gründete auf der Idee, dass die Nationen des Westens es als ihre Aufgabe ansahen, „(die Länder) … nicht zu versklaven, sondern sie zu befreien“, wie es ein anderer britischer Staatsmann, Lord Palmerston, leichthin formuliert hat. Die Ansicht, dass die Segnungen westlicher Zivilisation, die unterworfenen Völkern zuteil (sprich aufgezwungen) wurden, auch als Rechtfertigung (Vorwand) dienen konnten für eine imperialistische Politik, diese Ansicht wurde von einem Großteil der politischen und intellektuellen Elite Großbritanniens geteilt, auch von liberalen Größen wie J. S. Mill.



Nehmt auf euch des Weißen Mannes Bürde – schickt die Besten, die ihr aufzieht, hinaus. Auf, gebt eure Söhne in die Verbannung, der Notdurft eurer Gefangenen zu dienen. Lasst sie schwer gerüstet wachen über eine Menge, wankelmütig und wild – eure frisch eingefangenen, tückischen Völkerschaften, die halb noch Kinder sind, halb Teufel. Rudyard Kipling, Des Weißen Mannes Bürde, 1899



Worumoder esbefreit? geht Versklavt

115

116

Politik

29 Nationalismus „Unser Land! Bei seinen Beziehungen zu fremden Ländern möge es immer richtig liegen, aber ob richtig oder falsch; Unser Land!“ Dieser berühmte Toast, den Stephen Decatur, amerikanischer Marineoffizier und Nationalheld, auf einem Empfang 1816 ausgebracht hatte, wird bis heute gebraucht, wenn auch oft in der verkürzten (und etwas abgewandelten) Form „Mein Land, ob richtig oder falsch“ und zumeist ohne den geringsten Gedanken an den eigentlichen Sinn dieser Worte. Dieser jedoch entging Mark Twain nicht. Indem er ihn „mit all seiner Unterwürfigkeit“ erfasste, sagte er: „[Wir] haben das wertvollste Gut weggeworfen, das wir je hatten; das Recht eines jeden Menschen, sich Flagge und Land zu widersetzen, wenn er … glaubt, dass sie falsch liegen.“

Gemäß Decaturs Toast sollte der Patriotismus uns blind machen gegenüber der Tatsache, dass etwas falsch ist, allein aus dem Grund, weil es von unserem Land oder in seinem Namen getan wird. Oberflächlich betrachtet, eine höchst ungewöhnliche, um nicht zu sagen unmoralische Sicht. Die Ideen, auf denen sie gründet – Patriotismus und insbesondere dessen naher Verwandter Nationalismus, haben in den vergangenen zwei Jahrhunderten derart blinde Leidenschaften und Gewalttätigkeiten entfacht, dass sie einen gut Teil der Verantwortung tragen für die vielen grausamen Konflikte, für Unfrieden, Kampf und Streit, die die Welt während jener Jahre tief gezeichnet haben. Für Einstein ist der Nationalismus „eine Kinderkrankheit … die Masern der Menschheit“. Er war Hauptursache zweier Weltkriege im 20. Jahrhundert und ist auch in jüngster Zeit in grauenvoller Weise beteiligt an einer erschreckenden Gewalt und grotesken „ethnischen Säuberung“ an Orten wie Ruanda und dem Balkan. Doch ist nicht alles an ihm negativ zu sehen. Nationalistische Gefühle können auch eine erstaunliche Loyalität erwecken und einen tiefen gesellschaftlichen Zusammenhalt schaffen, beispielsweise innerhalb unterdrückter Minderheiten. Und er ist zudem die treibende Kraft für heldenhaften Opfermut und selbstlosen Widerstand gegen die Tyrannei.

Zeitleiste 1775–1783

1789–1799

ca. 1870

Die USA, geschmiedet in der Amerikanischen Revolution, inspiriert den liberalen Nationalismus

Die Französische Revolution kämpft für „Freiheit, Gleichheit, Brüderlichkeit“

Der italienische Staat entsteht nach einem halben Jahrhundert nationalistischer Anstrengungen

Nationalismus



Patriotismus ist ein lebendiges Gefühl von kollektiver Verantwortung. Nationalismus ist ein dummer Hahn auf seinem eigenen Misthaufen. Richard Aldington, englischer Romanschriftsteller und Dichter, 1931



Der Genius einer Nation Während Patriotismus nichts weiter bedeuten mag als die Liebe zum Vaterland und ein allgemeines Interesse an dessen Wohlergehen, ist der Nationalismus schärfer fokussiert, verbindet das patriotische Gefühl mit einer Art aktivem politischen Programm. Typischerweise ist das zentrale Ziel eines solchen Programmes, staatliche Souveränität zu erlangen, wozu Unabhängigkeit und Eigenständigkeit gehören, für eine Gemeinschaft, deren Mitglieder bestimmte Kriterien erfüllen, aufgrund derer sie eine „Nation“ bilden. Hat sich ein solcher autonomer Staat dann gebildet, sind die nächstfolgenden Ziele, sein Wohlergehen zu fördern und zu erhalten und jene Eigenschaften und Charakteristiken zu verteidigen, die zusammen genommen ein Identitäts- und Nationalgefühl formen. Nationalisten beharren darauf, dass ein so gebildeter Staat – der Nationalstaat – von den ihm zugehörigen Menschen unbedingte Loyalität vor allen anderen Loyalitäten fordern könne, und dass seine eigenen Interessen Vorrang haben vor allen anderen Interessen. Was aber ist eine Nation, und was sind die Eigenschaften, die ihre Identität ausmachen? Die meisten Nationalisten würden sich wohl weitgehend der Ansicht des Dichters Samuel Taylor Coleridge anschließen, die er in Table Talk (1830) zum Ausdruck brachte: „Ich jedenfalls nenne den Boden unter meinen Füßen nicht mein Land. Aber Sprache, Religion, Gesetze, Regierung, Blut – die Identität in alledem, das macht die Menschen eines Landes.“ Dreißig Jahre später macht Giuseppe Mazzini, einer der Architekten der italienischen Einheit, im Grunde die gleiche Aussage, als er darauf besteht, dass ein bestimmtes Gebiet lediglich ein Fundament darstellt: „Das Land ist die Idee, die auf diesem Fundament erwächst, es ist das Gefühl der Liebe, das Gefühl der Zusammengehörigkeit, das alle Söhne dieses Gebiets miteinander verbindet.“ Beide stimmen darin überein, dass es nicht (in erster Linie) um das Land als solches geht – obgleich ein anerkanntes Gebiet mit sicheren Grenzen nahezu ausnahmslos eine notwendige Bedingung für das langfristige Bestehen eines Nationalstaates ist. Der wesentliche und von Nationalisten so gepriesene Aspekt an einer Nation ist der, dass sie einen bestimmten Charakter, eine bestimmte Identität hat, die sie vor allen anderen auszeichnet. Es gibt, wie Ralph Waldo Emerson 1844 schreibt, einen

1871

1922–1945

1991–2001

1994

Bismarck schafft den ersten deutschen Nationalstaat

Faschistische Diktatoren verfolgen extrem nationalistische Politik in Europa

Nationalistischer Hass befeuert Krieg auf dem Balkan

Ethno-nationalistische Konflikte führen zum Genozid in Ruanda

117

118

Politik „Genius einer Nation, der sich nicht an seinen zählbaren Bürgern festmacht, sondern der die Gesellschaft charakterisiert.“ Jules Michelet, französischer Historiker und Verfasser eines zutiefst nationalistisch geprägten Geschichtswerks über Frankreich im 19. Jahrhundert, erklärte in einem berühmt gewordenen Satz, „Frankreich ist eine Person“. Die Nation, so Michelet, sei eine organische Einheit, ein ewiges Wesen, dessen Kern eine Destillation ihrer begrabenen Vergangenheit sei, und die ihre diversen Reliquien und Traditionen aus der „silences de l’histoire“ zöge. Dieser unverkennbare nationale Charakter ist das einzigartige und unbeschreibbare Produkt aus allerlei historischen, geographischen und kulturellen Faktoren: ein gemeinsamer Ursprung und eine gemeinsame Ethnizität; eine gemeinsame Sprache; ein gemeinsamer Fundus von Mythen und Erinnerungen, traditionellen Werten und Bräuchen. Dies sind die Faktoren, von denen einige oder alle nach der Ansicht des Nationalisten die Mitgliedschaft zu einer Nation bestimmen.

Die zwei Gesichter des Nationalismus Von Beginn an hat sich der Nationalismus in zwei sehr unterschiedliche Richtungen bewegt: die eine war liberal und fortschrittlich, die andere autoritär und rückwärtsgewandt. Diese Weggabelung trägt sehr zur Erklärung dafür bei, welch grässliche Rolle jener nationalistisch befeuerte Extremismus im 20. Jahrhundert spielen sollte. Die Gründungsväter der USA waren zutiefst patriotisch, doch das nationalistische Gefühl, das sie teilten, war grundsätzlich liberal und zukunftsorientiert, auf Vernunft gestützt und mit universeller Perspektive. Sie sahen sich als Wegbereiter für die Menschheit insgesamt in ihrem Marsch in Richtung größerer Freiheit und Gleichheit. Die Vision der neuen amerikanischen Nation war, nur wenige Jahre später, eine direkte Inspiration für den Nationalismus der französischen Revolutionäre, die sich ihre universellen Ziele mit der berühmten Parole „Freiheit, Gleichheit, Brüderlichkeit“ auf die

Fahnen schrieben. In Amerika wie in Frankreich war die Entstehung der neuen Nation ein Akt der Selbstbestimmung, bereitwillig unternommen von ihren Mitgliedern. Teils in Reaktion auf die Exzesse und Verwüstungen der Franzosen unter ihrem Führer Napoleon, nahm der deutsche Nationalismus, der sich in der ersten Hälfte des 19. Jahrhunderts entwickelte, eine ganz andere Farbe an. Romantisch und nach innen gerichtet, stellte er das innere Gefühl über den Verstand, Tradition über Fortschritt, Autorität über Freiheit. Indem er den Universalismus und die Idee von der Brüderlichkeit der Nationen verschmähte, war diese Version des Nationalismus selbstbezogen und exklusiv zugleich, erschuf eine nationale Geschichte, die Verschiedenheit und Überlegenheit hervorhob. Es war genau dieses Bild von Nation, diese Art von Nationalismus, die von den faschistischen Diktatoren des 20. Jahrhunderts ausgeschlachtet wurden.

Nationalismus



Ein modernes Phänomen Nach nationalistiNationen denken nicht, sie fühlen scher Auffassung ist die Welt also ein Flickwerk aus nur. Sie bekommen ihre Gefühle einzigartigen Gemeinschaften, von denen jede für aus zweiter Hand, von ihrem sich zusammengehalten wird durch ein komplexes Netz historischer, kultureller und anderer Faktoren. Temperament, nicht von ihrem Das Problem an diesem Bild ist nur, dass es in man- Gehirn. cherlei Hinsicht weit entfernt ist von der Realität. Mark Twain, 1906 Ethnische Gruppen vermischen sich seit tausenden von Jahren. Insofern ist also keine der heute bestehenden Bevölkerungsgruppen, egal welcher Größe, ethnisch homogen. Und in jedem Falle hat eine gemeinsame Ethnizität tendenziell weniger mit Gemeinschaftsund Zusammengehörigkeitsgefühl zu tun als Faktoren wie gemeinsame Sprache oder Religion. Der Nationalstaat hat sich als selbstbestimmte politische Organisation heute fest etabliert, und Nationalismus und nationale Selbstbestimmung sind als legitime politische Ansprüche weithin anerkannt. In der Tat ist ein zentraler Teil nationalistischer Folklore, dass die geschätzte Nation uralt ist und ihre historischen und kulturellen Wurzeln zurückreichen bis in undenkliche Zeit. Die neuere Wissenschaft ist sich jedoch einig, dass ein solches Bild ernsthaft irreführend ist – die Nationalstaaten seien in vielerlei Hinsicht moderne Konstrukte und die Idee ihres Fortbestands seit Urzeiten im Grunde ein Produkt des „retrospektiven Nationalismus“. Dies soll aber keineswegs heißen, dass die Menschen sich im Laufe der Geschichte nicht dem Land ihrer Geburt, den überlieferten Bräuchen und Traditionen verbunden gefühlt hätten. Doch waren die Bindungsmuster in der vormodernen Welt gänzlich andere. Die oberste Loyalität galt nicht dem Staat als solchem, sondern einem von Gott berufenen Monarchen. Und unter dem Monarchen stand eine komplexe Hierarchie örtlich gebundener Loyalitäten, die den Feudalherren oder aristokratischen Eliten galten. Und all diese Überzeugungen wurden getragen von der Vorstellung, dass jeder Mensch einer allumfassenden religiösen Gemeinschaft angehöre, die danach strebt, die ganze Menschheit zu umschließen. Erst als diese alten Bande sich zu lockern begannen, in einem Prozess, der mit den Umbrüchen im Zuge der Amerikanischen und Französischen Revolution begann, war es den Kräften der Moderne möglich (Säkularisierung, Volkssouveränität, Menschenrechte, wissenschaftliche Revolution, Industrialisierung), den Nationalstaat und das nationalistische Gefühl, das er beflügelte, zu formen.



Worum esMenschheit“ geht „… die Masern der

119

120

Politik

30 Multikulturalismus 1903 wurde in das Innere des Sockels der New Yorker Freiheitsstatue eine Bronzetafel eingelassen. Darauf eingraviert war das Sonett The New Colossus der Dichterin Emma Lazarus, das die wahrscheinlich berühmteste einladende Aufforderung der Geschichte enthält: „Give me your tired, your poor, Your huddled masses yearning to breathe free, The wretched refuse of your teeming shore“ (Gebt mir eure Müden, eure Armen, Eure geknechteten Massen, die frei zu atmen begehren, Den elenden Unrat eurer gedrängten Küsten). Welche Art der Behandlung die der Obhut der Freiheit anvertrauten Menschen erwarten konnten, erläutert das erfolgreiche Theaterstück The Melting Pot, das nur fünf Jahre später in Washington uraufgeführt wurde: „Amerika ist Gottes Feuerprobe, der große Schmelztiegel, wo alle Rassen Europas zusammenschmelzen und sich neu gestalten! … Hier sollen sie sich alle vereinen, die Republik der Menschheit zu erbauen und das Königreich Gottes.“

Die Millionen von Einwanderern, die in den ersten Jahrzehnten des 20. Jahrhunderts in die USA strömten, hatten kaum eine andere Wahl, als einzutauchen in den Schmelztiegel, der vom Autor des Theaterstückes, Israel Zangwill, so glorreich ausgerufen wurde. Es galt damals als völlig selbstverständlich, dass die verschiedenen ethnischen Gruppen einen Integrationsprozess durchleben würden, eine „Amerikanisierung“, im Zuge dessen ihre diversen Bräuche und Identitäten in die bereits bestehende und vorherrschende amerikanische Kultur absorbiert würden. Gleichwohl jedoch tat der Immigrant, Universitätsdozent und Philosoph, Horace Kallen, eine in dieser Frage radikal andere Auffassung kund. Ein Amerika, so argumentierte er, in dem die ethnische, kulturelle und religiöse Vielfalt bewahrt und E PLURIBUS UNUM – gefeiert würde, würde dadurch bereichert und gestärkt. Zunächst stand Kallen mit seiner Sicht des „kulturellen Plu„Aus vielen eines“ ralismus“ so ziemlich alleine, fand aber im Laufe des JahrhunWahlspruch der USA auf dem derts immer mehr Zustimmung, sodass sie sich bis zu den Großen Siegel der Vereinigten 1960ern als die orthodoxe Ansicht innerhalb der USA etabliert hatte. Das Bild des Schmelztiegels wurde zunehmend ersetzt Staaten





Zeitleiste 476

630er

1903

1908

Das Römische Reich fällt – oder löst sich auf?

Arabische Eroberungen von Syrien und Ägypten

„Gebt mir eure Müden, eure Armen“, Tafelinschrift der Freiheitsstatue

Uraufführung The Melting Pot in Washington (Theaterstück von Israel Zangwill)

Multikulturalismus



Amerika ist die Schmiede Gottes, der große Schmelztiegel, in dem die Rassen Europas ... Deutsche und Franzosen, Iren und Engländer, Juden und Russen verschmolzen und umgeformt werden. Zum Teufel mit euren Blutfehden und Rachefeldzügen! – hinein mit euch in den Schmelztiegel! Hier schafft Gott den Amerikaner. Israel Zangwill, The Melting Pot, 1908



durch andere Metaphern. So etwa sprach man von einem Mosaik oder humorvoll auch von einer Salatschüssel, in die alle möglichen Zutaten gegeben werden, die mit ihrem ganz eigenen Charakter und Geschmack sich am Ende zu einem runden Ganzen mischen. Die Diskussion um Ausmaß und Erwünschtheit von kulturellem Pluralismus – oder „Multikulturalismus“, wie man es mittlerweile allgemein nennt – hat sich bis heute gehalten und ist eine der dringlichsten und aktuellsten Fragen unserer Zeit. Imperiale Imperative Die sozialen Herausforderungen, die der Multikulturalismus heute zu meistern hat, sind hauptsächlich auf die Migration zurückzuführen, die oft wirtschaftlich motiviert ist. Doch lehrt uns ein Blick auf die Geschichte, dass Eroberungen und die Notwendigkeit imperialer Kontrolle immer schon dieselben Probleme aufgeworfen haben. Pioniere und unerreichbare Meister des Assimilationsansatzes waren die Römer, die aus einer Phase der militärischen Unterdrückung rasch zum Prozess der Romanisierung fanden: Städtische Siedlungen, ausgestattet mit Bädern und anderem Putz und Prunk der römischen Lebensart, wurden gebaut, damit die eroberten Völker sich nicht nur an das Leben und die Annehmlichkeiten der pax Romana langsam gewöhnen konnten, sondern auch an die imperialen Steuern. Der Assimilationsprozess gelang derart erfolgreich, dass die Provinzbewohner nicht selten römischer wurden als die Römer selbst, und zwar derart, dass einige gar behaupten, das Römische Reich sei nicht untergangen, es habe sich vielmehr aufgelöst. Ein ganz anderer Ansatz, bei dem die verschiedenen Kulturen toleriert wurden und neben der vorherrschenden Kultur (der Eroberer) bestehen blieben, hat es im 7. Jahrhundert mit den arabischen Eroberungen von Syrien und Ägypten gegeben. Die Sieger forderten von den eroberten Völkern nicht, dass sie zum Islam übertraten, sondern sie erlaubten Christen und Juden, ihren Glauben beizubehalten, sofern sie eine extra Diskriminierungssteuer zahlten.

1915

1990

11. Sept. 2001

2007

Democracy Versus the Melting Pot von Horace Kallen

Norman Tebbit schlägt den „Cricket-Test“ vor zur Feststellung der Loyalität von Immigranten

Islamistische Terroranschläge auf die USA

Wahl von Nicolas Sarkozy zum französischen Staatspräsidenten

121

122

Politik Aus dem Schmelztiegel heraus … Sowohl die Assimilation als auch der Multikulturalismus (als Reaktion auf die ethnische Vielfalt) basieren theoretisch auf liberalen Prinzipien. Sie unterscheiden sich aber in ihrer Interpretation von Gleichheit, und darin, wie diese realisiert werden könnte und sollte. Assimilation basiert auf der Vorstellung von Gleichheit als Selbigkeit. Soziale Gerechtigkeit verlangt, dass jeder die gleichen Rechte und Chancen genießt, dass es keine Diskriminierung aufgrund ethnischer Herkunft oder Kultur geben darf, und dass somit die Mittel, durch welche die Rechte verliehen und geschützt werden, für alle dieselben sein sollten. Dieses Modell der universellen Bürgerrechte hat Frankreich ausgefeilt und herangezogen, um zu bedeuten, dass Erscheinungsformen ethnischer (oder anderer) Verschiedenheiten unterdrückt bleiben sollen, zumindest im Bereich des öffentlichen Lebens. Doch damit stößt Frankreich immer wieder auf Kritik. Man ginge davon aus, so die kritischen Stimmen, dass Ethnizität und Kultur bedingte und ablösbare Aspekte der Identität einer Person oder einer ethnischen Gruppe seien, und dass politische Konzepte wie Bürgerrechte in Fragen der Hautfarbe und Kultur irgendwie neutral bleiben könnten. Andere wenden ein, dass ein derart neutrales politisches Umfeld ein Mythos sei, dass Wenn man in Frankreich Immigranten im Grunde genötigt würden, ihre eigene Kultur lebt, respektiert man seine zu unterdrücken und sich den vorherrschenden Werten der Regeln: Man ist nicht Gastkultur anzugleichen. Diese kritischen Stimmen erhalten polygam, lässt seine einmal mehr Gewicht durch die extremen und beharrlichen Töchter nicht beschneiden, Konflikte innerhalb der ethnischen Minderheiten Frankreichs sowie durch die Rhetorik der französischen Rechten (die in schächtet keine Schafe in der Politik von Nicolas Sarkozy ihren Nachhall findet), die seiner Badewanne. den Immigranten begegnet mit dem Satz: „Frankreich lieben Nicolas Sarkozy, 2006 oder gehen.“ Auch der Multikulturalismus ist aus liberalen Wurzeln gewachsen: Er steht für den Gedanken, dass die Pluralität verschiedener Lebensarten toleriert oder auch bestärkt werden müsse, sofern diese andere Menschen nicht störend beeinflussen oder mit ihnen in Konflikt geraten. Doch tritt er dem Gedanken der Assimilation, wo Gleichheit Selbigkeit bedeutet, entschieden entgegen. Stattdessen orientiert sich der Multikulturalismus an der sogenannten „Identitätspolitik“, die auch andere Bereiche des politischen Aktivismus umgewandelt hat. Ebenso wie etwa Schwule und Feministinnen heute nicht länger Gleichheit gegenüber Heterosexuellen und Männern als Erfolg sehen, fordern ethnische Minderheiten, einschließlich der Immigranten, heute in ähnlicher Weise, dass ihre angestammten Kulturen und Werte gleichermaßen anerkannt werden und sie diesen aus eigenem Recht und nach eigenen Bedingungen Ausdruck verleihen können. Doch das lässt einmal mehr Zweifel laut werden an der Rolle der liberalen Gastkultur als einem neutralen Nährboden, in den fremde Sitten und Bräuche eingepflanzt werden können. Allerwenigstens muss die Gastkultur ein gewisses Maß an Toleranz aufbringen, die einige der Neuankömmlinge in Abrede stellen könnten.





Multikulturalismus

Jenseits des „Tebbit-Test“ In einem Interview von 1990 mit der Los Angeles Times stellt der britische konservative Politiker Norman Tebbit eine Frage, die bis heute ein Echo findet: „Ein großer Teil der asiatischen Bevölkerung Großbritanniens besteht den Cricket-Test nicht. Für welches Team jubeln sie? Ein interessanter Test. Unterstützen sie das Team des eigenen Herkunftslandes oder aber das Team des Landes, in dem sie jetzt leben?“ Der sogenannte und damals viel kritisierte TebbitTest ist allerdings eindeutig fehlerhaft: Die große Mehrheit der Schotten beispielsweise würde sich ebenfalls nicht als Briten qualifizieren. Nichtsdestotrotz treffen Tebbits Äußerungen offenbar den Nerv vieler unter der weißen Bevölkerung. Es ist vielleicht einfach, über die Ängste hinwegzugehen, der Test könne den Rassismus schüren, doch die Wahrheit ist, dass diese Ängste heute lebendiger sind als je zuvor. Wie spätere Erhebungen zeigen, fühlt sich eine klare Mehrheit der schwarzen und asiatischen Bevölkerung in Großbritannien (teils Immigranten, teils im Land geborene) als Briten. Und wie die Erfahrung belegt, leben vielfältige ethnische Gruppen in friedli-

cher Eintracht zusammen, bilden funktionale Gemeinschaften, in denen sie viele ihrer Traditionen und Bräuche beibehalten – inklusive ihrer sportlichen Treue. Ebenso klar aber ist, dass es irgendeine gemeinsame Basis geben muss. Mit der Pluralität der Gruppen entsteht eine Pluralität der Loyalitäten, und diese Loyalitäten laufen in einem gewissen Grade immer auseinander. Was passiert, wenn diese Loyalitäten in verschiedene Richtungen gehen? Ab welchem Punkt sind sie nicht mehr vereinbar mit der Staatsbürgerschaft? Wie viel an gemeinsamer Kultur, Identität oder Geschichte reicht aus, um den „Kleber“ zu erzeugen, der eine multikulturelle Gesellschaft zusammenhält? Nach den islamistischen Anschlägen in den USA und Europa und im Zuge der zunehmenden Radikalisierung, insbesondere der jungen Generation der Muslime, haben diese Fragen an Brisanz gewonnen. Zu einer Zeit, da Toleranz und Beschränkungen mehr denn je erforderlich sind, beginnen sich viele Menschen weitaus unheimlichere Fragen zu stellen als Norman Tebbit in seinem Tebbit-Test.

Und wenn Multikulturalismus einen gewissen kulturellen Relativismus impliziert, der eine Beurteilung der Praktiken von Minderheiten ausschließt, dann mag sich die liberale Gastkultur aufgefordert sehen, einzutreten für den Schutz einer ganzen Reihe von Sitten und Bräuchen, die in ihrem eigenen Licht betrachtet unliberal sein mögen, wie etwa Zwangsheiraten oder weibliche Genitalverstümmelungen. Derlei Spannungen im Kern des Liberalismus lösen zwangsläufig Alarm und Ängste aus innerhalb der Elemente, die eine moderne multikulturelle Gesellschaft ausmachen.

Worum esSalatschüssel? geht Schmelztiegel oder

123

124

Politik

31 Gesellschaftsvertrag Warum geht der Mensch Verträge ein? Unter der Voraussetzung, dass ein Vertrag gerecht ist, haben die betroffenen Parteien im Allgemeinen das Gefühl, dass ihren Interessen besser gedient ist, wenn sie an Vertragsbedingungen gebunden sind, als wenn sie dies nicht sind. Andernfalls würde man wohl kaum freiwillig von Montag bis Freitag pünktlich um neun Uhr irgendwo auf der Matte stehen, erfüllt diese Verpflichtung aber trotzdem unter der Bedingung, dass die andere Partei der ihrigen Verpflichtung nachkommt und einem allmonatlich einen vereinbarten Geldbetrag überweist. Es lohnt sich meist, eine Einschränkung der eigenen Freiheit zu akzeptieren, um irgendein höheres Gut zu bekommen.

Es gibt eine Reihe von Philosophen, darunter Hobbes, Locke, Rousseau und (in der neueren Zeit) John Rawls, die politische Theorien entwickelt haben, wonach die staatliche Legitimierung auf einer impliziten Übereinkunft, einem gesellschaftlichen Vertrag, basiert. Ganz allgemein gesprochen, kommen die Bürger eines Staates überein, einen Teil ihrer Rechte und Souveränität an eine regierende Autorität abzutreten, um als Gegenleistung von ihr Schutz und Erhaltung des Lebens, des Vermögens und der sozialen Ordnung zu bekommen. Hobbes’ Leviathan Die vernunftmäßige Einwilligung in einen Vertrag muss Überlegungen miteinbeziehen, wie es um die Dinge bestellt sein würde, wären die Bestimmungen des Vertrages nicht in Kraft. In gleicher Weise gehen alle Theorien zu Gesellschaftsverträgen von Menschen aus, die in einem gedachten „Naturzustand“ leben: in einem hypothetischen Zustand, uneingeschränkt durch soziale oder gesetzliche Konventionen. Der englische Philosoph Thomas Hobbes zeichnet ein durchgehend pessimistisches und trostloses Bild der Menschheit im Naturzustand: Für einen „allgemeinen Trieb der gesamten Menschheit“, hält er „an erster Stelle ein fortwährendes und rastloses Verlangen nach immer neuer Macht …, der nur mit dem Tode endet“. Die Menschen, so Hobbes, handeln als isolierte, eigennützige Einzelwesen, einzig bedacht auf die eigene Sicherheit und das eigene Wohlbefinden, sehen sich in ständigem

Zeitleiste 1651

1690

Thomas Hobbes plädiert mit Leviathan für die absolute Herrschaft

Zwei Abhandlungen über die Regierung von John Locke wird veröffentlicht

Gesellschaftsvertrag



Wettstreit und Konflikt miteinander, weshalb kein Vertrauen und Denn durch Kunst wird auch kein Miteinander möglich ist. Und ohne eine Vertrauensbajener große Leviathan sis gibt es keinerlei Aussicht, Wohlstand zu schaffen und die geschaffen, genannt Früchte der Zivilisation zu ernten – es gibt „keine Künste, keine Gemeinwesen oder Staat, Bildung, keine Gesellschaft, und was das allerschlimmste ist, es herrscht ständige Furcht und die Gefahr eines gewaltsamen der nichts anderes ist als Todes.“ Und so schließt Hobbes diese berühmteste Passage aus ein künstlicher Mensch einem Werk Leviathan mit den Worten: „[Im Naturzustand] … ist … und die Souveränität das Leben der Menschen einsam, armselig, widerwärtig, vertiert stellt darin eine künstund kurz.“ liche Seele dar. Es ist im Interesse eines jeden, zu kooperieren, um diesem höllischen Zustand zu entrinnen, aber warum verständigen sich Thomas Hobbes, 1651 die Menschen im Naturzustand dann nicht darauf, zu kooperieren? Nun, einem (gemeinschaftlichen) Vertrag zu gehorchen, hat immer seinen Preis, es nicht zu tun, lässt immer (eigene) Gewinne zu – kurzfristig zumindest. Wenn Eigeninteresse und Selbsterhalt der einzige moralische Kompass sind, kann man sicher sein, dass irgendjemand seinen Vorteil suchen und vom Vertrag abweichen wird. Ist es da nicht das Allerbeste, selbst den Vertrag zuerst zu brechen? Genau so kalkulieren alle Anderen natürlich auch. Folglich gibt es kein Vertrauen und daher auch keinen Vertrag. Im Naturzustand wird das langfristige Interesse immer dem kurzfristigen weichen und somit keinen Ausweg lassen aus dem Kreislauf von Misstrauen und Gewalt. Die Frage ist, wie diese Menschen, die in eine solch elende und unerbittliche Zwietracht verstrickt sind, sich jemals daraus befreien und zu einer Übereinkunft gelangen können. Das eigentliche Problem nach Hobbes ist, dass „Verträge, ohne das Schwert, nichts [sind] als Worte“. Was es braucht, ist eine Form von äußerer Gewalt oder Sanktion, die den Menschen zwingt, den Regeln eines Vertrages zu gehorchen, der allen zugute kommt. Die Menschen müssen ihre Freiheiten zum Zwecke der Kooperation und des Friedens bereitwillig einschränken, unter der Bedingung, dass alle anderen dies auch tun; sie müssen „ihre gesamte Macht und Stärke auf einen Menschen oder eine Versammlung von Menschen übertragen, die ihre Einzelwillen durch Stimmenmehrheit auf einen Willen reduzieren können.“ Die Lösung besteht für Hobbes in einer absoluten Gewalt des Staates (die er „Leviathan“ nennt), in einer „allgemeinen Gewalt“, die die Menschen „im Zaum halten … soll“.



Rawls und die Gerechtigkeit als Fairness Unter den modernen Theoretikern des Gesellschaftsvertrages ist insbesondere einer zu erwähnen. Der US-amerikanische Philosoph John Rawls lieferte mit seinem 1971 erschienenen Buch Eine

1762

1971

1979–1980

In Vom Gesellschaftsvertrag zeichnet Jean-Jacques Rousseau das Bild vom „Edlen Wilden“

John Rawls entwickelt die Idee von Gerechtigkeit als Fairness in Eine Theorie der Gerechtigkeit

Die Regierungen der „Neuen Rechten“ in Großbritannien und den USA bemühen den Trickle-Down-Effekt für ihre Wirtschaftspolitik

125

126

Politik Theorie der Gerechtigkeit den wohl einflussreichsten Beitrag zur Debatte über soziale Gerechtigkeit und Gleichheit in der zweiten Hälfte des 20. Jahrhunderts. Jede Auffassung sozialer Gerechtigkeit beinhaltet, argumentiert Rawls, die Vorstellung von Unparteilichkeit. Jegliche Andeutung, die Prinzipien und Strukturen, auf denen ein soziales System fußt, seien verzerrt zugunsten einer bestimmten Gruppe (einer sozialen Klasse oder Kaste, zum Beispiel, oder einer politischen Partei) stempelt dieses System automatisch als ungerecht ab. Wie also sollten Lasten und Vorteile einer Gesellschaft unter ihren Mitgliedern verteilt sein, sodass die Gesellschaft zu einer gerechten wird? Um dieses Konzept der Unparteilichkeit zu fassen, brachte Rawls ein Gedankenexperiment ins Spiel, das im Grunde genommen eine moderne Aufarbeitung des Naturzustands ist. Darin fordert er uns auf, uns vorzustellen, wir seien in einem, wie er es nennt, „Urzustand“ (original position), in dem sämtliche persönlichen Interessen und Loyalitäten vergessen sind: „Niemand kennt seinen Platz in der Gesellschaft, seine Klasse oder seinen Status; ebensowenig seine natürlichen Gaben, seine Intelligenz, Körperkraft usw.“ Hinter diesen „Schleier des Nichtwissens“ gestellt, nicht wissend, welche Rolle in der Gesellschaft uns zukommen wird, sind wir gehalten, auf Nummer Sicher zu gehen und sicherzustellen, dass keine Gruppe auf Kosten einer anderen bevorteilt wird. Wie bei Hobbes ist es pures kalkulierendes Eigeninteresse, das die Entscheidungen hinter dem Vorhang antreibt. Soziale und ökonomische Strukturen und Regelungen können wir nur dann als eindeutig gerecht

Locke über die einvernehmlich entstandene Regierung John Locke, ein weiterer großer englischer Philosoph, schrieb fast ein halbes Jahrhundert nach Hobbes über die Idee des Gesellschaftsvertrags, um die Grundlagen der Regierung zu untersuchen. Hobbes bezieht sich auf die absolute Gewalt des Staates, dessen furchterregende Macht er symbolisch mit dem großen „Leviathan“ illustriert, „jenem sterblichen Gott“, und damit zu verstehen gibt, dass die Souveränität eines Staates nicht durch göttliche Fügung (wie es die damals orthodoxe Sicht vorgab), sondern durch Übereinkunft seiner Bürger zustandekommt. In dieser Hinsicht stimmt Locke mit Hobbes überein, doch ist seine Auffassung vom Naturzustand erheblich we-

niger trostlos als die von Hobbes und der Vertrag zwischen Mensch und Staatsmacht folglich auch weniger drakonisch. Während für Hobbes die Macht des Staates unbegrenzt und absolut sein muss, um die Gräuel „vom Krieg eines jeden gegen jeden“ abzuwenden, plädiert Locke für eine im Grunde konstitutionelle Monarchie: Die Bürger eines Staates kommen überein, ihre Macht an den Machthaber zu übertragen unter der Bedingung, dass dieser sie zum Allgemeinwohl nutze, und sie sich das Recht vorbehalten, ihm jene Macht zu entziehen (falls nötig durch Rebellion), sollte der Machthaber seinen vertraglichen Pflichten nicht nachkommen.

Gesellschaftsvertrag

127



bezeichnen, so Rawls, wenn sie aus der Position hinter diesem Die Grundsätze der „Schleier des Nichtwissens“ vereinbart worden sind. Gerechtigkeit werden Das Beste und Klügste, das der vernünftig handelnde Enthinter dem Schleier des scheidungsträger tun kann, um die eigenen (unbekannten) Nichtwissens festgelegt. künftigen Interessen zu schützen, ist nach Rawls, sich das sogenannte Differenzprinzip zu eigen zu machen. Danach sind John Rawls, 1971 Ungleichheiten in der Gesellschaft nur gerechtfertigt, wenn es dadurch den am schlechtesten gestellten Mitgliedern der Gesellschaft besser geht, als es ihnen sonst gehen würde. Dieses Prinzip löste heftige Kritiken aus, positive wie negative. Quer durch das politische Spektrum berief man sich auf Rawls Prinzip, um politische Positionen zu rechtfertigen (wovon einige sehr weit entfernt sind vom Kern seines linken, egalitären Standpunkts). Um ein extremes Beispiel zu nennen: Dem Prinzip zufolge schließt eine noch so kleine Verbesserung für die schlechter Gestellten einen riesigen Profit für diejenigen nicht aus, die sich ohnehin schon am Löwenanteil der gesellschaftlichen Güter erfreuen. Bemüht wurden die Rawls’schen Thesen beispielsweise von der „Neuen Rechten“ unter Reagan und Thatcher in den 1980er Jahren für den sogenannten TrickleDown-Effekt in der Wirtschaftspolitik, wo Steuererleichterungen für die Reichsten vorgeblich zu verstärkten Investitionen und wirtschaftlichem Wachstum führten, wovon vermeintlich auch die unteren Gesellschaftsschichten profitierten. Derlei Behauptungen bezeichnet der Ökonom J.K. Galbraith geringschätzig als „Pferde-Spatzen-Ökonomie“: „Wenn man den Pferden genug Hafer gibt, kommt am Ende auch etwas heraus als Futter für die Spatzen.“



Der Schlaf der Vernunft Der französische Philosoph Jean-Jacques Rousseau wurde von Hobbes’ Ideen stark beeinflusst, teilt aber in seinem bekanntesten Werk Vom Gesellschaftsvertrag oder Prinzipien des Staatsrechtes (1762) nicht das trostlose Bild des Menschen im „Naturzustand“, das Hobbes gezeichnet hat. Während Hobbes die Macht des Staates als notwendiges Mittel ansieht, die rohe Natur der Menschen zu zähmen, betrachtet Rousseau die menschlichen Laster und andere Missstände als ein Produkt der Gesellschaft. Der

„Edle Wilde“ hingegen, so Rousseau, sei von Natur aus gut und schuldlos. Zufrieden und glücklich im „Schlaf der Vernunft“ und in Einklang mit seinen Mitmenschen, werde er erst durch Erziehung und andere gesellschaftliche Einflüsse verdorben. Diese Vision der verloren gegangenen Unschuld und des nicht-intellektualisierten Gefühls fand Anklang in der Bewegung der Romantik, die gegen Ende des 18. Jahrhunderts Europa erfasste.

Worumdurch es geht Gesellschaft Konsens

128

Politik

32 Republikanismus „In Amerika ist das Gesetz der König. So wie im absolutistischen System der König das Gesetz verkörpert, so muss in freien Ländern das Gesetz König sein und keinen anderen neben sich dulden.“ Diese berühmte Forderung formulierte Thomas Paine, ein radikal-politischer Intellektueller, in seinem revolutionären Pamphlet Common Sense, in dem er darlegte, dass eine eigenständige Republik und ein vollständiger Bruch mit der britischen Krone die einzige Lösung für die Probleme und Missstände der amerikanischen Kolonisten darstelle. Am 4. Juli 1776, nur sechs Monate nachdem das Pamphlet veröffentlicht worden war, kam der Zweite Kontinentalkongress in Philadelphia zusammen, wo der Text der Amerikanischen Unabhängigkeitserklärung formell verabschiedet wurde. Damit war ein gewaltiger Schritt gemacht in Richtung einer Republik, die die ganzheitlichste und mächtigste der Neuzeit werden sollte.

Ein Jahrzehnt danach, 1787, griff John Adams, der spätere zweite Präsident der USA, Paines Forderung und Beharren auf die Wichtigkeit der Rechtsstaatlichkeit wieder auf. Indem er zum Ausdruck brachte, was er für „die wahre und einzig wahre Definition“ des Wortes hielt, bezeichnete er eine Republik als „eine Regierung, in der alle Menschen, reiche und arme, Verwalter und Untergebene, Beamte und Volk, Herren und Knechte, erste Bürger und letzte, gleichermaßen den Gesetzen unterworfen sind“. Und auch Alexander Hamilton, ebenfalls einer der Gründerväter, wirft in einem Brief von 1780 ein Licht auf die zentrale Rolle, die das Gesetz im republikanischen Regierungskonzept spielt, indem er in vorteilhafter Weise „den Gehorsam des freien Menschen gegenüber den allgemeinen Gesetzen“ dem Gehorsam „des Sklaven gegenüber der Willkür seines Herrn“ gegenüberstellt.



Der Gehorsam des freien Menschen gegenüber den allgemeinen Gesetzen, so hart sie auch sein mögen, ist immer noch vollkommener als der Gehorsam des Sklaven gegenüber der Willkür seines Herrn. Alexander Hamilton, 1780

Zeitleiste 510

v. Chr.

Vertreibung der Etruskerkönige markiert den Beginn der Römischen Republik



27 v. Chr.

1688

Die Römische Republik findet mit Kaiser Augustus ihr offizielles Ende

Die Glorreiche Revolution bringt England die Konstitutionelle Monarchie

Republikanismus Die neuzeitliche Bedeutung des Wortes „Republik“ ist derart schwammig, dass es ganz salopp auf praktisch jeden Staat der Welt angewendet wird, der nicht von einem Monarchen regiert wird. Doch die Bemerkungen von Paine, Adams und Hamilton, drei Große der Amerikanischen Revolution, weisen auf eine sehr viel seltenere und inhaltsreichere Bedeutung des Wortes hin. Nach dieser Auffassung, die in der antiken Welt verwurzelt ist, fungiert das Prinzip der Rechtsstaatlichkeit, zusammen mit anderen verfassungsmäßigen Sicherungen, als ein Bollwerk gegen Willkürlichkeiten im Verhalten der Regierung. Der Republikanismus, verstanden als Philosophie und Credo all jener, die solche politischen Systeme unterstützen, geht weit über eine sanfte Opposition gegen monarchische Systeme hinaus. Das römische Modell Dem klassischen republikanischen Paradigma zufolge ist der Hauptschuldige und Hauptverursacher der Willkürherrschaft ein herrischer Monarch (ein „königlicher Unmensch“, wie Paine es formuliert), dessen Sturz, durch den die Souveränität auf das Volk übergeht, ein Element ist im Gründungsmythos der neuen Staatsform. Diese klassische Anschauung ließ sich zunächst an einem politischen System beobachten, das späterhin, zur größten Inspirationsquelle republikanischer Denker werden sollte: die Römische Republik. (Das Wort „Republik“ ist abgeleitet aus dem lateinischen Wort res publica, „die öffentliche Sache“, im antiken römischen Sprachgebrauch „Staat“). Der römischen Überlieferung nach wurde die Römische Republik 510 v. Chr. gegründet, nachdem die etruskischen Könige in einer Revolte unter der Führung des republikanischen Helden Lucius Brutus gestürzt und vertrieben worden waren. Unmittelbare Ursache für den Aufstand war die Vergewaltigung einer römischen Matrone namens Lucretia durch Sextus Tarquinius, den widerwärtigen Sohn des ebenso widerwärtigen letzten Königs von Rom Tarquinius des Stolzen. Die Verfassung, die nach dem Sturz der Könige eingeführt wurde, war nominell eine demokratische Republik, insofern, als dass die unumschränkte Macht in Händen des Volkes lag und alle erwachsenen männlichen Bürger am politischen Leben teilhaben konnten. In der Praxis jedoch lag die Macht weitgehend in den Händen einer auf einer breiten Basis ruhenden Oligarchie aus rund fünfzig Adelsfamilien, die sich die höchsten MagisDie republikanische Regierungstraturen (politischen Ämter) vorbehielten. Der form ist die einzige, die sich wahre Dreh- und Angelpunkt der Macht war der nicht ewig in einem offenen oder Senat, wo Staatsangelegenheiten von ehemaligen geheimen Krieg befindet mit den Magistraten debattiert und entschieden wurden, Rechten der Menschheit. die alle ihre Mitgliedschaft auf Lebenszeit behielten. Thomas Jefferson, 1790





1775–1883

1776

1787

Die Amerikanische Revolution führt zur Geburt der USA

Der Common Sense von Thomas Paine fordert eigenständige Republik und Bruch mit der britischen Krone

John Adams betont die Rechtsstaatlichkeit im Konzept einer Republik

129

130

Politik Es gab jedoch zahlreiche gesetzmäßige Sicherungen, um Machtmissbrauch zu verhindern. Zum Beispiel war die Ausübung von Ämtern zeitlich begrenzt (meist auf ein Jahr), und selbst die beiden höchsten Ämter, die Konsulate, waren strikt vom Gesetz beschränkt und unterstanden dem Veto der zehn Volkstribunen, die allein vom gewöhnlichen Volk, den Plebejern gewählt wurden, um deren Interessen zu schützen. Von Rom nach Washington Trotz der vielen gesetzmäßigen Sicherungen, die sich über die folgenden fast vier Jahrhunderte herausgebildet hatten, war die Staatsform der römischen Republik alles andere als perfekt. Am Ende brach sie unter dem aufgelaufenen Gewicht von Korruption und Missbrauch zusammen und wurde 27 v. Chr. blutig ersetzt durch eine höchst autokratische Die Sittenlosigkeit ist der Imperialherrschaft, initiiert von Augustus, dem Stammvater Boden des Despotismus, des römischen Kaiserreiches. Dass auch spätere Theoretiker immer wieder fasziniert waren von dieser Römischen Repuso wie die Tugend das blik, auch die, die maßgeblich an der Gestaltung der amerikaWesen der Republik ist. nischen Verfassung beteiligt waren, lag ebenso am unbeugMaximilien Robespierre, 1794 samen Geist ihrer großen Figuren wie an ihren detaillierten Verfassungsbestimmungen. Die Kardinaltugend der Helden der Römischen Republik, derer sich spät-republikanische Nostalgiker wie Cicero noch gerne erinnerten, hieß pietas, „Pflichttreue“ – die Art von uneingeschränkter und selbstloser Hingabe gegenüber dem öffentlichen Interesse, die Figuren wie der Tyrannen mordende Brutus verkörperten; oder Scipio, der Zerstörer Karthagos; oder Cato der Jüngere, der als Urenkel seines berühmten Vorfahren, Cato des Älteren (einem berühmten römischen Staatsmann mit strengen republikanischen Prinzipien) 46 v. Chr. lieber Selbstmord beging als seine stoischen Prinzipien zu verraten. Diese römische pietas war eine wichtige Inspiration für die staatsbürgerlichen Tugenden, die zum Kennzeichen des amerikanischen Republikanismus wurden. Der republikanischen Auffassung zufolge, die sich in den 1770er Jahren in Amerika entwickelte, zeichnet sich der aufrechte Staatsbürger durch die grundlegende Willensbereitschaft aus, im Dienste seines Landes vorzutreten und das Gemeinwohl über eigennützige oder parteiische Interessen zu stellen. Er ist damit maßgeblich an der Gestaltung der Gesellschaft beteiligt und verfügt über den entsprechenden Bildungsgrad, um sich unter unabhängig gesinnten und intellektuell Gleichgestellten ein eigenes wohldurchdachtes Bild zu machen. Eine Folge, die sich aus den Voraus-







Der oberste Einwand gegen die Ein-Mann-Herrschaft ist der, dass die Autokraten häufig in Größenwahn verfallen, wobei obendrein noch inkompetente Erben hinzukommen, wenn der Posten weitervererbt wird. Anthony Quinton, 1995



Republikanismus

Die gekrönte Republik 1775, ein Jahr, bevor die amerikanischen Kolonien ihre Unabhängigkeit von Großbritannien erklärten, erhielt das despotische Mutterland ein unerwartetes Kompliment: „Die britische Verfassung ist … nichts anderes als eine Republik, in der der König der erste Magistrat ist. Dieses Amt, das vererbbar ist … stellt keinen Widerspruch zu der Regierungsform einer Republik dar, so lange es an festgeschriebene Gesetze gebunden ist, an denen das Volk das Recht auf Mitsprache und das Recht sie zu verteidigen hat.“ Diese Beobachtung machte der spätere zweite Präsident der USA, John Adams, der den Briten nicht entgegenhielt, dass ihre Regierungsform an sich ungerecht sei, sondern dass sie ihren amerikanischen Vettern „die Grundrechte [verwehrten], die allen Engländern garantiert sind und die alle freien Menschen verdienen“.

Seit dem endgültigen Sturz des StuartKönigtums in der Glorreichen Revolution von 1688 war England (das Großbritannien von 1707) nach Adams viel zitierter Phrase, „ein Reich der Gesetze, nicht der Menschen“; oder eine „gekrönte Republik“, wie H. G. Wells es 1920 formuliert hat. Das Geheimnis, eine Volksherrschaft zu erlangen, ohne die Monarchie zu stürzen, lag darin, ein konstitutionelles Arrangement einzubringen, das der „englischen Formel“ entsprach, wie Trotzki es nannte: Eine Regierung, in der der Monarch „regiert, aber nicht herrscht.“ Ein republikanisches Gefühl war in Großbritannien stets präsent, mal mehr, mal weniger, insbesondere zu Zeiten der royalen Unpopularität. In der praktischen Politik jedoch ist der Republikanismus so gut wie nie ein Thema gewesen.

setzungen jener Zeit ergab, war die, dass sich Frauen und besitzlose Arbeiter (und natürlich Sklaven) zu ihrem Schutz auf die tugendsame Elite (männlich, weiß) verlassen mussten. Während die Gründerväter sich tendenziell als liberal und republikanisch begriffen, stand der am Gemeinwohl orientierte Republikanismus, den sie vorantrieben, im Widerspruch mit dem Liberalismus insoweit, als dass letzterer damit befasst war, die (eigennützigen) Rechte des Einzelnen gegen die (begründeten) Forderungen des Staates zu schützen. Gleichzeitig waren der gesellschaftliche Konservatismus und die Strenge, beide bestärkt durch eine tiefe Religiosität, weit entfernt von der klassischen Neigung des Liberalismus, Reichtum zu schaffen und den wirtschaftlichen Individualismus zu fördern. Diese unterschwelligen Spannungen zwischen der republikanischen und liberalen Gesinnung sollten die Volksseele und Kultur der USA während der nächsten zweihundert Jahre formen und prägen.

es geht Regierung Worum der Gesetze, nicht der Menschen

131

132

Politik

33 Kommunismus „Die Kommunisten verschmähen es, ihre Ansichten und Absichten zu verheimlichen. Sie erklären es offen, daß ihre Zwecke nur erreicht werden können durch den gewaltsamen Umsturz aller bisherigen Gesellschaftsordnung. Mögen die herrschenden Klassen vor einer kommunistischen Revolution zittern. Die Proletarier haben nichts in ihr zu verlieren als ihre Ketten. Sie haben eine Welt zu gewinnen. Proletarier aller Länder, vereinigt euch!“

Mit diesem lautstarken Ruf zu den Waffen schließt Karl Marx sein Kommunistisches Manifest, ein Pamphlet mit weniger als 12 000 Wörtern, das er zusammen mit Friedrich Engels geschrieben hat und das 1848 als eine Plattform für den weitgehend ineffektiven, zänkischen und kurzlebigen Bund der Kommunisten erschienen ist. Obwohl seine unmittelbare Wirkung nur von kurzer Dauer war, hat dieser knappe Text wohl mehr als jedes andere vergleichbare Dokument beigetragen, die moderne Welt zu formen. Drei Jahre vor Veröffentlichung des Manifests, hatte Marx sich sehr abfällig über Philosophen geäußert, die sich lediglich damit begnügen, die Welt zu interpretieren. „Es kommt aber darauf an, sie zu verändern“, erklärte er. Und radikal und revolutionär wie er war, hätte er sich wohl kaum erträumt, in welchem Maße sein Wunsch sich noch erfüllen würde. Im Jahrhundert nach seinem Tod 1883 erwachte das „Spektrum des Kommunismus“, das Marx mit offenen Worten in seinem Manifest beschworen hatte, zu einem überaus unruhigen Leben. Eine Welle von kommunistischen Regimen, in denen seine Ideen (oder das, was als seine Ideen durchging) buchstäblich bis zur Zerstörung erprobt wurden. Was sich in der wirklichen Welt unter seinem Namen alles zugetragen hat, insbesondere in Stalins Russland oder Maos China, sollte als unauslöschlicher Schandfleck an seinem Ruf haften bleiben. Als in den Jahren nach 1991 die Lenin-Statuen unter riesigen Staubwolken eingestürzt waren, schien Marx’ Vorstellung vom revolutionären Kampf, der in einer klassenlosen sozialistischen Gesellschaft gipfelt, ebenso ausgedient zu haben wie das sowjetische System selbst. Es schien, als gehöre der Kommunismus in der Tat der Vergangenheit an und auf den „Aschehaufen der Geschichte“, wie der US-amerikanische Präsident Ronald Reagan es 1982 prophezeit hatte. Doch die Jahre vergingen, der Staub setzte sich

Zeitleiste 1818

1844

1848

1867–1894

1883

Karl Marx wird im rheinischen Trier geboren

Marx trifft in Paris auf seinen Weggefährten Friedrich Engels

Das Kommunistische Manifest erscheint im Auftrag des Bundes der Kommunisten

In Das Kapital (in drei Bänden) erläutert Marx seine Theorie des kapitalistischen Systems

Marx stirbt in London

Kommunismus ab, und eine neue, besonnenere Sicht wurde möglich. In einer Welt, wo die Kräfte des globalen Kapitalismus gewaltige Ungleichheiten geschaffen haben, braucht man kein eingefleischter Sozialist zu sein, um den grundsätzlichen menschlichen Anstand von Marx’ Vision einer Gesellschaft anzuerkennen, in der jeder gemäß seinen Fähigkeiten gibt und jeder gemäß seinen Bedürfnissen nimmt. Impuls für Veränderung Das im Manifest dargelegte Spektrum des Kommunismus war nicht die ureigene Idee von Marx. In der ersten Hälfte des 19. Jahrhunderts hatte die europäische Gesellschaft durch eine nie dagewesene technologische und industrielle Revolution einen enormen Wandel durchlebt. Dieser Wandel erbrachte einen erstaunlichen Anstieg in der wirtschaftlichen Produktivität sowie außerordentliche Gewinne im gesamtgesellschaftlichen Reichtum der Länder der beginnenden Industrialisierung. Doch wanderte dieser neu geschaffene Reichtum weitgehend in die Taschen der kapitalistischen Elite. In den Augen der Kritiker zumindest wurden so die ohnehin schon Reichen nur noch reicher, und zwar auf Kosten der Arbeiterschaft, deren Bedingungen sich im gleichen Zeitraum stetig verschlimmert hatten. Ein derart massiver (und wie es schien massiv ungerechter) sozialer Wandel forderte unweigerlich eine politische Reaktion heraus. Etwa ein Jahrzehnt vor Erscheinen des Manifests 1848 begannen die „Mächte des alten Europa“ zunehmend unruhig zu werden angesichts der ersten Regungen der radikalen Kommunisten – Akteure einer extremen sozialistischen Bewegung, mobilisiert im Interesse der Arbeiterschaft, die sich den gewaltsamen Sturz der kapitalistischen Gesellschaft und die Abschaffung von Privateigentum zum Ziel gemacht hatte. Vor diesem Hintergrund also, in Reaktion auf die empfundenen Ungerechtigkeiten der Gesellschaft seiner Zeit begann Marx seine kommunistischen Ideen auszuarbeiten, sowohl als politische Doktrin wie auch als praktisches Handlungsprogramm. Geschichte als Klassenkampf Die Zwillingssäulen der Marx’schen Überlegungen sind eine ausgeprägte wirtschaftliche Theorie verbunden mit einem ebenso ausgeprägten Verständnis für historischen Fortschritt. Nach Marx ist die Kraft, die



Marx dafür verantwortlich zu machen, was in seinem Namen getan wurde, ist ebenso falsch, wie Jesus dafür verantwortlich zu machen, was in seinem Namen getan wurde. Tony Benn, britischer Sozialist, 1982



1917

1922–1953

1949

1991

Der russische Revolutionär Lenin versucht erstmals, die marxistischen Prinzipien umzusetzen

Der sowjetische Tyrann Stalin regiert in der Sowjetunion

Mao Tse-tung überwacht die Gründung der Volksrepublik China

Zusammenbruch der Sowjetunion

133

134

Politik

Der Himmel kann warten „Die herrschenden Ideen einer Zeit waren stets nur die Ideen der herrschenden Klasse“, schrieb Marx 1845. Mit anderen Worten: Die herrschende „Ideologie“ – die Summe der orthodoxen Sichtweisen, die in Medien, Bildung etc. zum Ausdruck kommen – reflektiert stets nur die Sichtweisen der herrschenden Klasse und dient damit der Rechtfertigung der ungleich verteilten wirtschaftlichen und politischen Macht, die diese herrschende Klasse genießt. 1902, fünfzehn Jahre vor der Russischen Revolution, übernahm der künftige erste Führer der Sowjetunion, Wladimir Iljitsch Lenin, die Marx’sche Analyse der Ideologie, glaubte aber, dass dieser ihre Bedeutung in Sachen Motivation für eine Revolution nicht richtig verstanden hatte. Marx ging davon aus, dass das Proletariat sich spontan erheben würde, um seine Unterdrücker zu stürzen, Lenin jedoch erkannte, dass die herrschende Ideologie ein „falsches Bewusstsein“ induzieren würde, das den Arbeiter blind

machen würde gegen die eigenen Interessen und dieser so den Blick verlöre für die eigene Unterdrückung. Was man nach Lenins Ansicht brauchte, war eine Vorhut, um die Arbeiter ins Licht zu führen – eine elitäre Vorhut, erwählt aus radikal gesinnten Intellektuellen … wozu er selbst sich zählte. Die Vorhut würde vorangehen, die „Herrschaft des Proletariats“ zu errichten, die (nach Marx) vorübergehende, kurzzeitige Phase, die schließlich in einem voll entfalteten Kommunismus gipfeln würde. Das Problem des Kommunismus im 20. Jahrhundert in all seinen Ausprägungen besteht darin, dass er nie über diese Übergangsphase hinausgekommen ist. Die politische Macht konzentrierte sich in den Händen einer Vorhut, wo sie auch blieb. Die Herrschaft des Proletariats hat es nie gegeben, wohl aber die einer zunehmend zentralistischen kommunistischen Partei. Der kommunistische Himmel und das Ende der Geschichte lassen insofern auf sich warten.

die Geschichte unaufhaltsam vorwärts treibt, die wirtschaftliche Entwicklung. Zu produzieren, was auch immer benötigt wird, hat in jeder Gesellschaft oberste Priorität, um das eigene Überleben zu sichern. Eine solche Produktion kann nur erreicht werden mit der für das jeweilige Zeitalter charakteristischen Produktionsweise. Das heißt, durch eine Kombination der verfügbaren Rohstoffe mit den verfügbaren Werkzeugen und Techniken, die zur Produktion notwendig sind, sowie den menschlichen Ressourcen, die in verschiedenen Funktionen eingesetzt werden. Die zugrundeliegende Struktur, die von diesen wirtschaftlichen Faktoren aufgezwungen wird, bestimmt das Muster der gesellschaftlichen Organisation innerhalb der Gesellschaft als Ganzes, und insbesondere die Beziehungen zwischen den verschiedenen gesellschaftlichen Elementen oder „Klassen“. In jeder historischen Phase ist eine Klasse vorherrschend und kontrolliert die Produktionsmittel, beutet die Arbeit der Arbeiterklasse aus, um die eigenen Interessen zu fördern. Die Produktionsweisen der vergangenen und gegenwärtigen Zeit

Kommunismus sind jedoch von Natur aus instabil. „Widersprüche“ im Verhältnis zwischen den verschiedenen gesellschaftlichen Elementen führen unausweichlich zu Spannungen, Unruhen und letztlich zu Konflikt und Revolution, im Zuge derer die vorherrschende Klasse gestürzt und ersetzt wird. In seinem Manifest stellt Marx fest: „Die Geschichte aller bisherigen Gesellschaft ist die Geschichte von Klassenkämpfen.“ Die Theorie der Der Industriekapitalismus, die Produktionsweise zu Zeiten Kommunisten lässt Marx’, war in seiner Sicht eine notwendige Phase der wirtschaftlisich in einem einzigen chen Entwicklung, die einen gewaltigen Anstieg der industriellen Satz zusammenfassen: Produktion erbracht hatte. Dennoch hatte die Bourgeoisie, die herrschende kapitalistische Klasse, die die Produktionsmittel besa- Abschaffung des ßen, ihre wirtschaftliche Macht dazu genutzt, um enormen ReichPrivateigentums. tum für sich selbst zu erzeugen, indem sie Waren ankauften und Karl Marx, 1848 verkauften mit Gewinnen, so Marx, die vollständig das Verdienst der Arbeit der Arbeiterklasse (des Proletariats) waren. Nach den Gesetzen der Wissenschaft (wie Marx sie sah), die das kapitalistische System kontrollieren, läuft der Industrialisierungsprozess zwangsläufig auf eine noch größere Verarmung des Proletariats hinaus. Und schließlich kommt es zur Krise, sobald der Arbeiterklasse klar ist, dass die Kluft zwischen ihren Interessen und jenen der Bourgeoisie unüberbrückbar ist. Dann wird sich die Arbeiterklasse erheben und die herrschende Klasse der Bourgeoisie stürzen, die Kontrolle über die Produktionsmittel übernehmen und das Privateigentum abschaffen. Die „Herrschaft des Proletariats“ wird sich etablieren und seine Interesse gegen eine Konterrevolution der Bourgeoisie verteidigen. Die Kraft dieser Übergangsphase aber wird langsam „verkümmern“ und am „Ende der Geschichte“ ersetzt werden durch einen vollständig erkannten Kommunismus – durch eine stabile, klassenlose Gesellschaft, in der es Freiheit gibt für alle und in der gesellschaftliche Produktionsmittel gemeinsam gehalten und zum Wohle aller eingesetzt werden.





Worum aller es geht „Proletarier Länder, vereinigt euch!“

135

136

Politik

34 Faschismus „Grundlage des Faschismus ist die Auffassung vom Staat, seinem Wesen, seiner Pflicht, und seinem Ziel. Der Faschismus begreift den Staat als absolut, im Vergleich zu welchem alle Individuen oder Gruppen relativ sind, die allein in ihrem Verhältnis zum Staat zu begreifen sind. Die Auffassung von einem Liberalstaat ist nicht die einer lenkenden Kraft, die das Spiel und die Entwicklung eines kollektiven Köpers leitet, sowohl materiell als auch spirituell … Auf der anderen Seite hat der faschistische Staat selbst ein Bewusstsein, selbst einen Willen und eine Persönlichkeit …“

Erster faschistischer Diktator, der seine Macht in Europa etablieren sollte, war Benito Mussolini. Bevor er il Duce („der Führer“) der italienischen faschistischen Partei wurde, arbeitete er als Journalist. Es gibt von ihm zahlreiche Ausführungen zu den Prinzipien jenes politischen Systems, das zu entwickeln er mehr beigetragen hatte als jeder andere. 1932 setzte er seinen Namen unter einen Aufsatz mit dem Titel „Der Geist des Faschismus“, von dem Teile für den Eintrag zum Punkt „Faschismus“ in die Enciclopedia Italiana übernommen wurden. Obgleich ein Großteil des Textes aus der Feder von Giovanni Gentile stammen soll, dem selbsterklärten „Philosophen des Faschismus“, zählt dieser Aufsatz bis heute zu den grundlegenden Dokumenten einer Ideologie, die im teuflischsten Flächenbrand der menschlichen Geschichte unsagbares Leid und den Tod über Abermillionen Menschen bringen sollte. Er ist ein Musterbeispiel eines überaus sprachgewandten Fanatismus, in dem die Hauptmerkmale des faschistischen Denkens präzise dargelegt sind, wie etwa die Rolle des alles umspannenden und heiligen Staates (siehe obiges Zitat), dem rechtermaßen die größte Bedeutung zuteil wird. Der vielDer Faschismus ist keine neue gepriesene Staat, Gegenstand einer obsessiven und extrem nationalistischen „Blut-und-Boden“-MentaliIdeologie im eigentlichen Sinne. tät, war für alle faschistischen Regime stets ein symEr ist die Zukunft, die sich wei- bolisches Totem, letztgültige Rechtfertigung für die gert, geboren zu werden. entsetzlichen Gräueltaten, die in seinem Namen beAneurin Bevan, britischer Politiker, 1952 gangen wurden.





Zeitleiste 1917

1919

1922

Die Russische Revolution verbreitet in ganz Europa Furcht vor dem Kommunismus

Der Unmut über den Vertrag von Versailles legt die Saat für künftige faschistische Regime

Mussolini wird nach dem Marsch auf Rom Ministerpräsident (ab 1925 Diktator)

Faschismus

Ein tödlicher Mix Dass der Aufstieg des europäischen Faschismus in den 1920er und 1930er Jahren in einem beträchtlichen Maße angetrieben war von einer Furcht vor den Ereignissen als von den Ereignissen selbst, entbehrt nicht einer gewissen Ironie. Der Faschismus war, wie der italienische Schriftsteller Ignazio Silone einst bemerkte, „eine Konterrevolution gegen eine Revolution, die nie stattgefunden hat“. Im Kielwasser der Russischen Revolution von 1917 war die Bedrohung des internationalen Sozialismus auch in weiten Teilen Europas zu spüren, eine Furcht, die von faschistischen Führern unablässig ausgenutzt wurde, deren Rhetorik und Propaganda ein überaus schauriges Bild von der Roten Gefahr zeichneten, die sich da im Osten zusammenbraute. Die orthodoxe marxistische Sicht auf den Faschismus fiel aber keineswegs günstiger aus, der als ein letzter verzweifelter Schachzug autoritärer Kapitalisten gedeutet wurde. „Faschismus an der Macht“, erklärte der Sekretär der Kommunistischen Internationalen, Georgi Dimitrow 1935, „ist

die offene terroristische Diktatur der reaktionärsten, chauvinistischen, am meisten imperialistischen Elemente des Finanzkapitals“. Das eigentliche Rätsel jedoch war, inwieweit der Faschismus in der Schuld des Kommunismus stand oder von diesem abgeleitet war, nicht nur was das totalitäre Konzept der staatlichen Kontrolle betraf, sondern auch in Sachen Ideologie. So etwa bemerkte kein Geringerer als Hermann Göring, späterer Oberbefehlshaber der Deutschen Luftwaffe unter Hitler, in einer Rede 1933, dass sich die eigene Bewegung beim feigen Marxismus bedient und ihm die Bedeutung des Sozialismus entnommen habe; ihren Nationalismus wiederum habe sie den feigen Parteien der Mittelklasse entnommen. Und beides in einen Topf geworfen habe ganz klar und eindeutig eine neue Synthese namens Deutscher Nationalsozialismus hervorgebracht. Nazismus als Mix aus Marxismus und bürgerlichem Nationalismus – ein in der Tat toxisches Gebräu.

Credo eines Bastards Die Auffassung von Faschismus als spiritueller Nationalismus fand ein Jahr später (1933) mit José Antonio Primo de Rivera, dem Gründer der spanischen faschistischen Falange, ein Echo: Der Faschismus wurde geboren, um einen Glauben zu erwecken nicht der Rechten (die im Grunde alles zu bewahren sucht, auch das Ungerechte) oder der Linken (die im Grunde alles zu zerstören sucht, auch das Gute), sondern einen kollektiven, integralen, nationalen Glauben.

1933

1945

1975

Adolf Hitler wird zum deutschen Reichskanzler ernannt. In Spanien wird die faschistische Falange gegründet (ab 1937 Teil der Regierungspartei Francos)

Der Tod von Mussolini und Hitler bereitet der „Ära des Faschismus“ ein Ende

Francisco Franco, der letzte faschistische Diktator, stirbt in Madrid

137

138

Politik Mit diesen Worten macht Primo de Rivera zudem deutlich, in welchem Maß der Faschismus ideologisch heterogen war: Er borgte sich seine Versatzstücke von Ideologien, die ihm eigentlich verhasst waren, beispielsweise vom Marxismus oder dem demokratischen Liberalismus. Die vielen faschistischen Parteien und Regime, die zwischen den Weltkriegen überall in Europa aus dem Boden schossen, hatten ganz unterschiedliche politische Programme, die typischerweise opportunistisch und auf lokale Belange zugeschnitten waren. Sie erweckten kaum den Eindruck, als seien hier politische Seelenverwandte zu einem gemeinsamen politischen Projekt aufgebrochen. Die Prinzipien dieses Bastards namens Faschismus zeichneten sich von Anfang an weniger durch einen gemeinsamen philosophischen Unterbau aus als vielmehr durch eine skrupellose Organisierung und Aufmachung, gekennzeichnet durch strikte autoritäre Kontrolle, extreme Gewalt sowie eine fetischistische Fixiertheit auf Mythologie der eigenen Gruppe und Symbolik. Es komme der Moment … Während die Widersprüche in der faschistischen Ideologie eine einfache Analyse kaum zulassen, ist man sich allgemein darüber einig, dass die sogenannte „Ära des Faschismus“ (die Zeit von 1922 bis 1945) im Wesentlichen ein Produkt des Ersten Weltkrieges und des schlagartigen Diktatfriedens von Versailles war. In Italien, wo der Faschismus seinen ersten Erfolg mit Mussolinis Marsch auf Rom verzeichnete, war der Aufstieg einer Einparteien-

Der Stempel des Adels Die Essenz faschistischer Herrschaft war ungezügelte Macht, worauf allein schon der Name deutet. Der Begriff ist abgeleitet vom lateinischen fasces, was „Rutenbündel mit Beil“ bedeutet, im alten Rom das Amtssymbol der höchsten politischen Machthaber. Das totalitäre System hatte inegalitäre Strukturen, – Mussolini schrieb von der „unveränderlichen, nutzbringenden und fruchtbaren Ungleichheit der Menschheit“. Außerdem war das System antidemokratisch – Wahlen wurden verboten (oder manipuliert) und nur eine einzige politische Partei war erlaubt – und unliberal – es verlangte die absolute Unterordnung des Individuums unter den Staat. Militarismus und Imperialismus waren Ausdruck der lebendigen Kraft

des Staates: „Nur der Krieg erhebt zur höchsten Spannung alle menschliche Energie“ beteuerte Mussolini, „und prägt jenen Völkern den Stempel des Adels auf, die den Mut besitzen, ihm zu begegnen“. Das schreckliche Ausmaß des faschistischen Experiments beschreibt der englische Autor Harold Nicolson, als er sich im Januar 1932 in Rom aufhielt: „Sie haben jedenfalls das ganze Land in eine Armee verwandelt. Von der Wiege bis zum Grabe wird man in die faschistische Form gepreßt, dem kann niemand entrinnen. Es handelt sich jedenfalls insoweit um ein sozialistisches Experiment, als es die Individualität zerstört. Es zerstört auch die Freiheit.“

Faschismus Diktatur teils eine Reaktion auf die Unzufriedenheit der Bevölkerung mit den liberalen demokratischen Institutionen des Landes und insbesondere mit dem Scheitern der Regierung, in den Nachkriegsverhandlungen die erwarteten territorialen Zugewinne zu sichern. In Deutschland wurden die Demütigung der Niederlage und der Unmut über beschlagnahmte Gebiete zusätzlich verschärft durch eine Wirtschaftskrise, die bedingt war durch die alles lähmenden Reparationsleistungen und eine Hyperinflation, die die Lebensgrundlage der einfachen Leute schnell ruiniert hatte. Der Faschismus definiert In Italien wie in Deutschland wurden die vielen bitterlichen Kränkungen des Nationalstolzes geschickt manipuliert von sich nicht durch die Anzahl faschistischen Propagandisten und nach und nach in einen seiner Opfer, sondern Mythos von einem nationalen Niedergang und einer nationadurch die Art und Weise, len Demütigung verwandelt. Damit gelang es Mussolini beispielsweise, das italienische Volk fantasiereich als eine Rasse wie er sie tötet. zu schildern, die „viele Jahrhunderte lang von Erniedrigungen Jean-Paul Sartre, 1953 und fremder Knechtschaft“ gequält war. Und insbesondere in Deutschland speiste sich der Mythos teilweise aus der „Reinheit des Blutes“, einer Idee, die gestützt wurde von etlichen wissenschaftlichen Scheintheorien und schließlich in eine albtraumhafte rassische und eugenische Politik mit „Zwangseuthanasien“ und Massenvernichtungen führte. Die Länder, die den faschistischen Regimen anheimfielen, sahen sich selbst als Opfer, als Opfer einer schwachen und unfähigen Regierung im eigenen Land sowie einer böswilligen Verschwörung ausländischer Kräfte. Das Versprechen, diesen Schandfleck zu beseitigen, machte den Reiz einer ultranationalistischen faschistischen Herrschaft aus. Der gemeinsame Kampf eines geeinten Volkes verhieß eine nationale Wiedergeburt, die den Stolz und das Land erneuern würde. Feinde sowohl im Inland wie im Ausland (Sozialisten, Liberale und Juden) würden eliminiert. Und dafür brauchte es eiserne Disziplin und die Opferbereitschaft des Volkes unter einem starken und resoluten Führer – wie eben Mussolini oder Hitler.





Worum es gehtaus Eine toxische Synthese Links und Rechts

139

140

Politik

35 Rassismus Es gehört zu den eher außergewöhnlichen Tatsachen der Geschichte, dass ausgerechnet die Vereinigten Staaten von Amerika – selbsternannte „Heimat der Freien“ und Bastion der Freiheit, der Gleichheit und der Menschenrechte – in den ersten 89 Jahren ihres Bestehens eine Gesellschaft darstellten, deren Wirtschaft und allgemeiner Wohlstand von der Sklaverei abhingen. Die Sklaverei wurde in den amerikanischen Kolonien bereits über ein Jahrhundert vor Geburt der USA im Jahr 1776 legalisiert. Und auch nach ihrer formalen Abschaffung 1865 haben viele Aspekte der Diskriminierung, die damit verbunden waren, für weitere hundert Jahre überdauert. Diese beschämende Tatsache im Kern der US-amerikanischen Geschichte – dieser Widerspruch zwischen dem allerhöchsten Prinzip und der allerübelsten Praxis – spielte eine zentrale Rolle, die Rassenidee zu etablieren, die Vorstellung, man könne die Menschheit einteilen in natürliche, biologisch determinierte Gruppen – in „Rassen“. Die ersten englischen Kolonisten, die zu Beginn des 17. Jahrhunderts in Nordamerika siedelten, hegten zweifelsohne Vorstellungen der eigenen kulturellen und moralischen Überlegenheit gegenüber den Ureinwohnern Amerikas, auf die sie im neuen Land stießen, und auch gegenüber den Schwarzafrikanern, die kurze Zeit später dort eintrafen. Ihre Vorstellungen aber (wonach jene Nicht-Europäer sowohl anders als auch minderwertig seien, da sie anderen Rassen angehörten) begannen erst gegen Ende des 17. Jahrhunderts zu verschmelzen mit einer Rechtfertigung dessen, was zuvor schlicht mit wirtschaftlicher Notwendigkeit, wenn überhaupt, begründet worden war – der Institution der Sklaverei. Dieser Eindruck des rassischen „Andersseins“ hielt sich im 18. und 19. Jahrhundert durchgehend, war anfangs mehr intuitiv vorhanden und kaum in Begriffe gefasst, verstärkte sich dann aber durch eine diskriminierende Gesetzgebung und theoretische Überlegungen auf Seiten der Intellektuellen und Wissenschaftler. Denker wie Kant und Voltaire bestätigten die Ansicht, dass „Wilde“ und „Primitive“ rassisch minderwertig seien, während die Wissenschaftler ihre Energien darein ver-

Zeitleiste 1642

1865

Massachusetts legalisiert als erster US-Bundesstaat die Sklaverei

Die Sklaverei in den USA wird abgeschafft

Rassismus



wendeten, die rassischen Varianten der Ich weigere mich, die Ansicht menschlichen Spezies zu identifizieren. Einige gingen sogar so weit, vorzuschlagen, anzuerkennen, dass die Menschheit derart tragisch in die sternlose „andere“ rassische Gruppen stellten gesonderte biologische Arten dar, behaupteten gar, Mitternacht von Rassismus und Krieg diese seien nicht oder nicht vollständig verstrickt ist, dass der helle Tagesmenschlich. In den frühen Jahren des 20. anbruch von Friede und Brüderlichkeit Jahrhunderts jedenfalls, nach etlichen Jahrniemals Wirklichkeit werden kann. zehnten der Gewöhnung, hatte sich die VorMartin Luther King Jr, 1964 stellung, es gebe entlang rassischer Grenzen natürliche Unterschiede zwischen den menschlichen Gruppen, die eine unterschiedliche soziale Behandlung rechtfertige, in den meisten Gesellschaften rund um die Welt fest eingeschliffen.



Rassismus Heute hat der Begriff „Rassismus“ (mindestens) zwei verschiedene, wenngleich miteinander verbundene, Bedeutungen. Im allgemeinen Sprachgebrauch versteht man unter Rassisten die Menschen, die Anderen gegenüber, die sich von ihnen selbst etwa in Bezug auf das körperliche Erscheinungsbild oder den geografischen Ursprung unterscheiden, feindlich gesinnt sind und sie verachten. Das Ziel eines solchen Verhaltens mag mehr oder weniger genau definiert sein, doch wird Rassismus dieser Art kaum verstandesmäßig betrachtet oder interpretiert und auch nicht von theoretischen Rechtfertigungen gestützt. Zum zweiten, und im Unterschied zur ersteren Bedeutung, kann sich die Bezeichnung „Rassismus“ auf eine bestimmte Sichtweise über die Dinge in der Welt beziehen – auf eine systematische Reihe von Glaubenssätzen und Einstellungen, die eine eigene Weltsicht oder Ideologie formen. Zentraler Bestandteil dieser Sicht ist die Überzeugung, dass jeder Mensch einer, und nur einer von mehreren Gruppen angehört, die als „Rassen“ bezeichnet werden, von denen jede sich biologisch von allen anderen unterscheidet. Die Angehörigen einer bestimmten Rasse teilen bestimmte Kennzeichen ihrer rassischen Identität, insbesondere sichtbare physische Merkmale wie eine gemeinsame Hautfarbe oder charakteristische Gesichtszüge. Außerdem gibt es bestimmte verhaltensbezogene und psychologische Merkmale (Temperament oder geistig intellektuelle Fähigkeiten etwa), die als charakteristisch für eine einzelne Rasse gelten. Diese diversen Unterschiede hängen von der spezifischen Biologie der jeweiligen Rasse ab. Sie sind genetisch bedingt und somit ererbt, angeboren und beständig. Die unterschiedlichen Rassen sind in Bezug auf geistige Fähigkeiten, moralischen Wert etc. nicht gleich, was es prinzipiell möglich macht, sie nach ihrer relativen Überlegenheit einzustufen.

1933

1964

frühe

Erste antijüdische Rassengesetze im nationalsozialistischen Deutschland

Das Bürgerrechtsgesetz (Civil Rights Act) verbietet Rassentrennung in den USA

Das Apartheid-System in Südafrika wird (gesetzlich) beendet

1990er Jahre

141

142

Politik

Die größeren Verbrechen der weißen Gesellschaft Eine der besonders verachtenswerten Taktiken, derer sich Rassisten bedienen, ist es, soziologische Daten auszunutzen, die ein unverhältnismäßig hohes Maß an strafbarem oder kriminellem Verhalten einer ausgewählten rassischen Gruppe anzeigen, und damit glauben machen wollen, dies sei Beweis einer natürlichen Delinquenz oder Kriminalität dieser ausgewählten Gruppe. In Großbritannien und den USA beispielsweise ließe sich den Kriminal- und Strafakten entnehmen, dass männliche Schwarze eine relativ hohe kriminelle Aktivität zeigen. Die

Taktik basiert darauf, kriminelles Verhalten so zu behandeln, als sei es einzig ein Produkt biologischer Determination, gänzlich unbeeinflusst von sozialen oder anderweitigen Faktoren. Im Januar 1968, nur wenige Monate vor seiner Ermordung, brachte Martin Luther King Jr. in einer Rede, diese Situation klar auf den Punkt: „Dass Neger Verbrechen begehen, ist unbestreitbar und beklagenswert. Doch es sind abgeleitete Verbrechen, geboren aus den größeren Verbrechen der weißen Gesellschaft.“

Rassismus in diesem zweiten, ideologischen Sinne könnte möglicherweise das (eher unreflektierte) rassistische Verhalten im erstgenannten, populären Sinne erklären oder gar rechtfertigen. Sehr viel bedeutsamer aber ist, dass die Annahmen der rassistischen Weltsicht von Politikern und Gesetzgebern gebraucht werden können und gebraucht wurden, um eine diskriminierende Politik und diskriminierende Einrichtungen in der Gesellschaft als Ganzes zu rechtfertigen. Das bekannteste Beispiel dafür ist Südafrika. Dort hat das System der Apartheid, das System der „getrennten Entwicklung“ bis zu seiner Abschaffung Anfang der 1990er Jahre formell eine ganze Reihe diskriminierender Maßnahmen gebilligt, die die nicht-weiße Mehrheitsbevölkerung in abgesonderte, speziell zugewiesene Gebiete verwies, sie in den Niedriglohnsektor abschob und ihr den Zugang zu den meisten politischen wie wirtschaftlichen Chancen und Privilegien verwehrte. Wissenschaft und Rasse Bis in die 1970er Jahre wurde die Ansicht, man könne die Menschheit nach aussagekräftigen Kriterien in rassische Kategorien aufteilen, noch von vielen Wissenschaftlern vertreten. Sie gingen davon aus, dass solche Kategorien biologisch festgelegt waren und es die Aufgabe der Wissenschaft sei, die Unterschiede und Beziehungen zwischen ihnen zu untersuchen. Damit schlugen sie in dieselbe wissenschaftliche Kerbe wie ihre Vorgänger über hundert Jahre zuvor. Bis Mitte des 19. Jahrhunderts hatte die Aufgabe, verschiedene Rassen zu klassifizieren und vor allem „den Platz des Negers in der Natur“ festzustellen, eine ganze Reihe neuer Methoden und Techniken geboren. Die Praktiker einer dieser Künste, bekannt unter dem Namen Kraniometrie, befleißigten sich, menschliche Schädel zu vermessen. Sie machten sich vor, die Schädel von Schwarzen seien klei-

Rassismus ner als die von Weißen, und schlossen daraus, dass Letztere mit einer größeren angeborenen Intelligenz ausgestattet seien. Die fixe Idee von der relativen Intelligenz erhielt neuen Schwung im 20. Jahrhundert mit der Einführung der IQ-Tests (IQ gleich Intelligenz-Quotient). In den USA war man damit besonders eifrig zugange, zumal die Forscher herausfanden, dass Schwarze in diesen Tests (im Mittel) weniger gut abschnitten als Weiße und man so die eigenen Vorurteile bestätigt sah. Überaus erstaunlich an diesem wissenschaftlichen Konsens rund um das Thema Rasse ist, dass er so lange gehalten hat. Denn dieser Konsens bezüglich der Aussagekraft rassischer Kategorien schien in Detailfragen auseinanderzufallen (wie etwa in der Frage, wie viele Rassen es denn eigentlich gäbe) – was eigentlich darauf deutete, dass irgendetwas an diesem Ansatz verkehrt sein musste. Zwar wurden hier und da immer mal wieder andersdenkende Stimmen laut, doch die waren nicht laut genug, als dass sie die vorherrschende orthodoxe Sicht ernsthaft herausgefordert hätten. Erst als das 20. Jahrhundert bereits weit fortgeschritten war, fanden sie Gehör. Mittlerweile waren nämlich die genetischen Grundlagen der menschlichen Vererbung weitgehend verstanden. Blutgruppenmuster sowie später auch etliche andere genetische Kennzeichen zeigten keinerlei Zusammenhang mit den hergebrachten rassischen Kategorien. Bald schon war klar, dass es innerhalb einer rassisch definierten Gruppe eine weit größere genetische Variabilität gibt als zwischen beliebigen zwei dieser Gruppen. Zur gleichen Zeit nahm man die Arbeiten früherer Forscher kritisch unter die Lupe und fand heraus, dass sowohl ihre Methoden (wie die IQ-Tests) als auch ihre Interpretationen gravierende Mängel aufwiesen. Heute stößt das biologische Konzept von Rasse in der wissenschaftlichen Welt fast überall auf Ablehnung. Es wird gemeinhin anerkannt, dass die Idee der Rasse ein soziales Konstrukt ist, das relativ neu ist, und das nur im Kontext spezifischer historischer, kultureller und politischer Gegebenheiten verstanden werden kann. Varianten im körperlichen Erscheinungsbild, vor allem in der Hautfarbe, auf die rassische Kategorien typischerweise aufbauen, lassen sich entwicklungsgeschichtlich als relativ vordergründige Anpassungen an wechselnde Umweltbedingungen erklären. Unter der Last der Beweise brach die Idee von Rasse als einer biologischen Kategorie in der wissenschaftlichen und intellektuellen Welt schlichtweg zusammen. In der ganz „realen“ Welt jedoch wird es sehr viel länger dauern, diese Idee, die so viel Leid und Zerstörung über die Gesellschaft und Einzelne gebracht hat, aus den Köpfen der Menschen zu verbannen.

Worum geht „Die sternlosees Mitternacht“

143

144

Politik

36 Feminismus „Die Tyrannei des Mannes ist nach meiner festen Überzeugung der Ursprung der meisten Torheiten der Frau … In punkto der Rechte, für die die Frauen gemeinsam mit den Männern streiten sollten, habe ich nicht versucht, ihre begangenen Fehler zu verharmlosen; sondern sie als ein natürliches Produkt ihrer Bildung und Stellung in der Gesellschaft zu belegen. Dann nämlich steht durchaus zu vermuten, dass sie ihr Wesen ändern und ihre Laster und Torheiten korrigieren, sobald sie frei sein dürfen im körperlichen, moralischen und bürgerlichen Sinne … Lasst die Frauen teilhaben an allen Rechten … und sie werden den Tugenden der Männer nacheifern …“

Dieser Appell für Gerechtigkeit und Gleichheit für die „unterdrückte Hälfte der Menschheit“ findet sich bei Mary Wollstonecraft in den letzten Absätzen ihres Buches Die Verteidigung der Frauenrechte, erschienen 1792. Die Reaktionen schwankten zwischen Schock und Bewunderung. Die 32-jährige Brandfackel – eine „Hyäne in Unterröcken“ nach Ansicht eines aufgebrachten Horace Walpole – wetterte gegen ein restriktives Bildungs- und Erziehungssystem, das den Frauen eine „sklavische Abhängigkeit“ hinterließ, eine „schwache Eleganz des Denkens“, und keine anderen Ambitionen als auf ihr Äußeres bedacht zu sein und den Männern zu gefallen. Würden den Frauen die gleichen Möglichkeiten zuerkannt wie den Männern, so beharrt sie, würden sie beweisen, dass sie keineswegs weniger intelligent oder weniger befähigt sind als Männer. Obwohl es in der lang anhaltenden und oft eher manierlich-gezierten „Frauendebatte“ immer mal wieder vereinzelt weibliche Stimmen gegeben hat, gab Wollstonecraft dieser Debatte eine neue Leidenschaft und Dringlichkeit: Sie gab lautstark bekannt, dass sich ein authentisches feministisches Bewusstsein abzuzeichnen begann. Dass, zumindest in der westlichen Welt, ein hohes Maß an Gleichheit zwischen den Geschlechtern (wenn auch noch keine vollständige) gemeinhin als selbstverständlich erachtet wird, ist ein Zeugnis der Errungenschaften der feministischen Bewegung. Darüber vergessen wir leicht, dass noch vor einem knappen Jahrhundert das Leben der Frauen in erheblichem Maße eingeschränkt war in sozialen, wirt-

Zeitleiste 1792

1848

1869

Mary Wollstonecraft protestiert gegen die Unterordnung der Frau

Erste US-Versammlung für Frauenrechte in Seneca Falls, New York

Die Hörigkeit der Frau von J. S. Mill

Feminismus schaftlichen und politischen Belangen. Die Frau gehörte ins Haus – obgleich man ihr das Recht, es zu besitzen, zumeist verwehrte. Frauenwahlrecht Im Jahrhundert nach Wollstonecrafts Tod 1797 wurden die Rufe nach einem Wandel beständig lauter. Mitte des 19. Jahrhunderts gewann die Bewegung mit John Stuart Mill einen dynamischen Anhänger, der in seinem Werk Die Hörigkeit der Frau im Jahre 1869 schrieb: „Die gesetzliche Unterordnung des einen Geschlechts unter das andere … muss durch das Prinzip der vollkommenen Gleichheit ersetzt werden, es darf keinerlei Macht oder Privileg für die eine und keinerlei Nachteil für Ich selbst habe es nie geschafft, die anderen geben.“ In den USA wie in Europa ergenau herauszufinden, was hielt die Emanzipationsbewegung im Zuge des Feminismus ist. Ich weiß nur, dass Kampfes um die Abschaffung der Sklaverei neue ich immer dann als Feministin beImpulse. Den Gegnerinnen der Sklaverei wurde bewusst, dass sie für Schwarze Rechte einforderten, die zeichnet werde, wenn ich Gefühle zum Ausdruck bringe, die mich in vielerlei Hinsicht über diejenigen hinausgingen, die für sie selbst galten. von einer Fußmatte oder einer In den fünfzig Jahren, die folgten, ging es den Fe- Nutte unterscheiden. ministen in der ganzen westlichen Welt fast ausRebecca West, englische Autorin, 1913 schließlich um die Durchsetzung des Frauenwahlrechts. Lobbyarbeit, die freundlich in damenhafter Manier begonnen hatte, scheiterte an einer tief verbohrten Gegenwehr des Establishment und wurde zunehmend militanter, als Suffragetten (organisierte radikale Frauenrechtlerinnen in Großbritannien und den USA zu Beginn des 20. Jahrhunderts) beiderseits des Atlantik eine Kampagne starteten mit Boykotten, Demonstrationen, Brandanschlägen und Hungerstreiks. Diese Taktiken – die die Tradition des politischen Aktivismus etablierten, der zum Kennzeichen des Feminismus werden sollte – zahlten sich letztlich aus, als in Großbritannien (1918 und 1928) und den USA (1920) das Frauenwahlrecht eingeführt wurde.





Die zweite Welle Den Kampf um das Frauenwahlrecht gewonnen zu haben, war zweifelsohne ein großer Sieg. Trotzdem waren die westlichen Gesellschaften nach wie vor durchzogen von geschlechterspezifischen Ungleichheiten in nahezu allen Lebensbereichen. Auf der allerersten Versammlung für Frauenrechte in den USA 1848 in Seneca Falls im Bundesstaat New York wurde eine Resolution verabschiedet, die für Frauen „die gesetzliche Gleichstellung mit den Männern in verschiedenen Berufen sowie im Stimmrecht“ forderte. Über siebzig Jahre später wurde schmerzhaft deutlich, dass in Bezug auf die wirtschaftliche Gleichstellung der Frau

1918

1920

1960er

1990er

Britische Frauen ab 30 erhalten das Wahlrecht (ab 21 erst 1928, so wie es für Männer galt)

Der 19. Zusatzartikel der US-amerikanischen Verfassung untersagt, einer Person aufgrund ihres Geschlechts den Zugang zu einer Wahl zu verbieten

Beginn der „zweiten Welle“ des Feminismus

Beginn der „dritten Welle“ des Feminismus

145

146

Politik nur wenige Fortschritte zu verzeichnen waren. Es blieb viel zu tun, soviel war klar. Doch das Zusammengehörigkeitsgefühl, das im Kampf um die gemeinsame Sache des Frauenwahlrechts gewachsen war, verpuffte rasch, als dieses oberste Ziel erreicht war. Der Blick auf ein Ziel ging verloren, zusätzlich verschlimmerte sich die Situation zunächst durch die weltweite Wirtschaftskrise und später durch den Ersten Weltkrieg. Was blieb, war eine geschrumpfte und zersplitterte Frauenbewegung. So wie es die glühende Leidenschaft der Bewegung gegen die Sklaverei gebraucht hatte, um die sogenannte „erste Welle“ des Feminismus ins Rollen zu bringen, brauchte es in den 1960er Jahren eine neue Zeit der Hoffnung und der Krise (Bürgerrechtsbewegung, Vietnam, Hippie-Revolution und Studentenproteste), um die „zweite Welle“ loszutreten. Mit einem Mal schossen tausende neuer Initiativen gegen tausende empfundene Ungerechtigkeiten aus dem Boden. Doch förderte dieser erneuerte und breitgefächerte Aktivismus Unterschiede und Spaltungen zutage, die innerhalb des Feminismus seit langem bestanden hatten. Die Hauptströmung, sprich der liberale Feminismus (was im Kontext der USA bedeutet: sozialdemokratisch und Bürgerrechte – Anm. des Übersetzers), tendierte zu einer pragmatischen Linie, die auf eine strikte Gleichheit mit den Männern in allen Bereichen zielte. Vorderste Aufgabe waren Reformen, die jegliche Form der Diskriminierung verhinderten: Abbau formeller wie informeller Barrieren, die Frauen den beruflichen Aufstieg bislang verwehrt hatten; angemessene Mutterschutzregelungen und Maßnahmen zur Kinderbetreuung; gleiche Bildungs- und Ausbildungsmöglichkeiten für Frauen. Es hat innerhalb des Feminismus auch immer schon radikalere Stimmen gegeben. 1898 bereits hatte die führende US-amerikanische Anarchistin Emma Goldman gespottet über die Vorstellung, mit der Einführung des Frauenwahlrechts sei die Freiheit der Frau gewonnen. Wahre Freiheit könne die Frau nur erlangen, „indem sie jedem das Recht über ihren Körper verweigert; indem sie sich weigert, Kinder zu gebären, es sei denn sie will Kinder; indem sie sich weigert, eine Dienerin Gottes

Die Hölle kennt keinen Zorn … In einer Rede genau 200 Jahre nach Erscheinen von Wollstonecrafts Die Verteidigung der Frauenrechte beschrieb Pat Robertson, rechtsgerichteter Pfarrer der evangelikalen Kirche, den Feminismus als „sozialistische, familienfeindliche politische Bewegung, die Frauen anstachelt, ihre Ehemänner zu verlassen, ihre Kinder zu töten, Hexerei zu betreiben und lesbisch zu wer-

den“. Hexerei und Kindsmord sind zwar weniger belegt, aber es stimmt durchaus, dass es den anderen Punkten zur einen oder anderen Zeit nie an feministischer Unterstützung gemangelt hat. Dies ist mindestens ebenso ein Tribut an die schiere Bandbreite und Vielfalt dieser Bewegung wie an ihren Extremismus – und an letzterem hat es ihr schließlich auch nie gemangelt.

Feminismus zu sein, des Staates, der Gesellschaft, des Ehemannes, der Familie.“ Spätere Feministinnen bezweifelten, ob eine strikte Gleichstellung mit den Männern wirklich das war, wofür sie kämpfen sollten – oder nicht vielmehr für eine Gesetzgebung, die explizit die Interessen der Frauen schützte und verteidigte. War es ratsam, den emanzipatorischen Fortschritt am erfolgreichen Zugang zu Macht und Privilegien in einer patriarchal organisierten Welt zu messen, in einem System, das auf der Grundannahme männlicher Dominanz basierte? Vielen reichte es nicht, sich mit den Männern nach deren Bedingungen zu messen, sie mit ihren eigenen Waffen zu schlagen. Die australische Feministin Germaine Greer kommentierte 1986: „Ich habe nicht dafür gekämpft, die Frauen hinter dem Staubsauger vorzuholen, um sie in den Vorstand von Hoover zu befördern.“ Untermauert wurden diese Bedenken durch eine ausgedehnte theoretische Debatte über Natur und Ursprünge der Unterdrückung der Frau. Im Mittelpunkt der Diskussion stand die Unterscheidung zwischen biologischem und sozialem Geschlecht, die auf der Idee basierte, die Weiblichkeit sei ein gesellschaftliches Konstrukt. Diese Idee, dass die Frau „nicht geboren, sondern gemacht“ werde, dass sie „das andere Geschlecht“ sei, eine Person, die asymmetrisch mit Bezug auf männliche Normen definiert wird, hatte Simone de Beauvoir in Das andere Geschlecht (1949) bereits vorweggenommen. In dieser radikalen Kritik bleibt die untergeordnete Rolle der Frau derart fest im Gewebe der patriarchalen Gesellschaft hängen, dass es wohl nichts geringeres als eine revolutionäre Umgestaltung dieser Gesellschaft braucht.

Globale Schwesternschaft heißt das Ziel In den 1990er Jahren entstand eine „dritte Welle“ des Feminismus, teils in Reaktion auf die empfundenen Schwächen und Defizite früherer Feministinnen. In gewissem Maße war es weniger ein Wechsel im Inhalt als vielmehr im Stil, der klug war, bestimmt, ironisch, von spielerischem Selbstbewusstsein und den alten Ernst der Aktivistinnen der „zweiten Welle“ hinter sich gelassen hatte. „Girl Power“‘ (wie es kommerziell verpackt wurde) ersetzte „Flower Power“. Eine Generation, die mit Madonna aufgewachsen war, übernahm das Ruder von ihren Vorgängerinnen, die Joan Baez gelauscht

hatten. Doch hinter dem Hochglanz steckte durchaus auch ein Inhalt. Das vielleicht größte Versagen der vornehmlich weißen und wirtschaftlich vergleichsweise gutgestellten „zweiten feministischen Welle“, trotz ihrer vorgeblichen „globalen Schwesternschaft“, war die Unfähigkeit, die Bedürfnisse der schwarzen Feministinnen und der Feministinnen der Dritten Welt wirklich zu begreifen und einzubeziehen. Der dritten Welle gelang es, einen Pluralismus zu entfalten, der alles Vorherige übertraf. Und sie schaffte es somit, einen wahrhaft globalen Feminismus in Aussicht zu stellen.

Worum esnicht geht Gleichberechtigt, gleich

147

148

Politik

37 Islamismus „Das Urteil, die Amerikaner und ihre Alliierten, Zivilisten und Militärs gleichermaßen, zu töten, wo immer dies möglich ist, ist eine individuelle Pflicht für jeden Muslim, der hierzu in der Lage ist, bis die al-Aqsa-Moschee [in Jerusalem] und die Heilige Moschee [in Mekka] von ihnen befreit sind und bis ihre Armeen das gesamte Territorium des Islam verlassen haben, geschlagen und unfähig, irgendeinen Muslim noch zu bedrohen. Dies ist in Übereinstimmung mit dem Worten des Allmächtigen Gottes, ,Kämpft gegen die Ungläubigen, bis es keine Verfolgung mehr gibt und Gerechtigkeit und der Glaube an Gott allein vorherrscht!‘.“

Die ganze Grausamkeit dieser fatwa (religiösen Verordnung), ausgegeben im Februar 1998, sollte sich dreieinhalb Jahre später verwirklichen, als binnen siebzehn Minuten zwei Maschinen nationaler Fluglinien den leuchtblauen Himmel über Manhattan durchschnitten und mit tödlicher Wucht in die Zwillingstürme des World Trade Center krachten. Die fatwa ist Teil einer umfassenderen Erklärung, die zum „Heiligen Krieg gegen Juden und Kreuzzügler“ aufruft, ausgegeben von der Internationalen Islamischen Front, einer extrem islamistischen Gruppe, und angeführt von Osama bin Laden, dem bald schon „meist gesuchten Mann der Welt“. Die ernste Gefahr, die der westlichen Welt durch radikale Islamisten droht und die mit den Anschlägen vom 11. September ihren bislang verheerendsten Ausdruck fand, macht diese Erklärung überaus deutlich klar. Jedoch war die Erklärung beileibe nicht die erste Warnung, und besagter Anschlag leider auch nicht der letzte. Die Missstände, die den politischen Islam vorantrieben, schwelten lange, blieben aber so gut wie unverstanden. Und dieses mangelnde Verständnis, und zwar auf beiden Seiten, hat äußerst gravierende Auswirkungen, die die Welt bis zum heutigen Tage erschüttern. Das neue Kalifat Die Selbstmordanschläge vom 11. September 2001 waren das Ergebnis jahrelanger Planung von Akteuren aus dem Lager der Al-Qaida, einem losen Terrornetzwerk unter der Führung bin Ladens. Ausmaß und Art der Angriffe machten Al-Qaida unausweichlich zum internationalen Gesicht des Islamismus, und

Zeitleiste 1979–1989

1980–1988

Die USA unterstützen die Mudschaheddin im Sowjetisch-Afghanischen Krieg

Die USA unterstützen Saddam Hussein im Iran-Irak Krieg

Islamismus ihre radikale Agenda wurde mancherorts so gelesen, als würden sie die Ansichten der Muslime überhaupt widerspiegeln. Zu allem Übel wurde das Bild des islamischen Fanatismus ausgestaltet mit grauenvollen Bildern aus Afghanistan, wo die Taliban, eine fundamentalistische muslimische Miliz, 1996 die Macht ergriffen, Al-Qaida eine Basis boten und dem afghanischen Volk ihre höchst repressive theokratische Herrschaft aufzwangen. Terroristische Gräueltaten, nahezu mittelalterliche soziale Unterdrückung, Selbstmordattentate, im Fernsehen gezeigte Enthauptungen – all das verschwor sich zu einem höchst reißerischen und grausamen Bild des islamistischen Fundamentalismus und (durch falsche Schlussfolgerungen) des Islam an sich. Das allem übergeordnete Ziel der radikalsten Islamisten ist, wie auf einer Internetseite der Al-Qaida von 2008 zu lesen stand, „einen islamischen Scharia-Staat zu errichten, der die Muslime dieser Erde in Wahrheit und Gerechtigkeit einen wird“. Die gegenwärtige Unterdrückung muslimischer Länder ist eine Folge davon, dass man vom wahren Pfad des Islam abgeirrt sei, den man nur wieder erlangen könne durch strikte Einhaltung der Lehren des Koran und die Einführung der Scharia, des religiösen Gesetzes des Islam, wie es von Gott offenbart worden ist. Der Islam sei die einzig wahre Religion und seine Gültigkeit universell, weshalb das neue Kalifat die gesamte Menschheit überall auf der Erde umfassen müsse. Der Groll der Islamisten gegen den Westen ist groß und richtet sich gegen vielerlei Dinge, die ihnen auf dem Weg zurück zum wahren Pfad als Hindernis erscheinen, aber zuerst und vor allem gegen eines – gegen die Existenz des Staates Israel. Die Unterstützung des „engstirnigen Judenstaates“ (wie es in der fatwa von 1998 formuliert ist) ist eine der Hauptbeschuldigungen gegen die USA. Und auch die Reihe der Konflikte im Irak sowie die vorgebliche Destabilisierung anderer Länder im Nahen und Mittleren Osten sind in den Augen vieler Muslime ein Mittel, den israelischen Staat zu erhalten. Ein zweiter großer Vorwurf, der ebenfalls in der fatwa von 1998 klar ausgesprochen ist, liest sich dort wie folgt: „(Seit mehr als sie-



Haut ab und lasst uns in Ruhe, um den islamischen Scharia-Staat zu errichten, der die Muslime dieser Erde in Wahrheit und Gerechtigkeit einen wird. Ein einziges Wort des Protests von Seiten Amerikas dagegen wird von tausend islamischen Bomben zum Schweigen gebracht. Al-Qaida Website, 2008



1990–1991

11. Sept. 2001

Okt. 2001

März 2003

US-geführte Koalition besiegt Saddam nach der irakischen Invasion in Kuwait

Die Terroranschläge fordern knapp 3 000 Todesopfer

Unter Führung der USA beginnt der Afghanistan-Feldzug gegen die Taliban

US-Invasion des Irak und die „Koalition der Willigen“

149

150

Politik ben Jahren) besetzen die USA Grund und Boden des Islam an den heiligsten Orten der Arabischen Halbinsel, plündern seinen Reichtum, befehligen seine Herrscher, demütigen seine Bewohner, terrorisieren seine Nachbarn“. Besonders demütigend war die über ein Jahrzehnt währende Präsenz der US-Militärbasen nach dem Golfkrieg 1990–91 im „Land der Zwei Heiligen Orte“, in Saudi Arabien also mit den heiligen Stätten Mekka und Medina. Die „islamische Bedrohung“ Sowohl vor als auch nach dem 11. September hat die Reaktion der westlichen Mächte, und insbesondere der USA, auf die empfundene „islamische Bedrohung“ das Misstrauen der Muslime, und zwar radikalen wie gemäßigten gleichermaßen, tendenziell bestätigt. Europa und die USA zeigten sich im Allgemeinen recht unsensibel gegenüber muslimischen Belangen, die aus jahrhundertealten Spannungen und Konflikten mit dem Westen herrührten, sowie aus einer langen Periode der kolonialen Besatzung, die weit bis ins 20. Jahrhundert hineinreichte. Arabische Länder werden oft als rückständig und gegen die Moderne gewendet porträtiert, doch der Hauptfokus ihrer Ängste, ist der in ihren Augen wirt-

Dschihad So wie der Begriff „Kreuzzug“ für Muslime überaus negativ besetzt ist, hat der Begriff Dschihad mehr als sonst irgendeiner dazu beigetragen, die Verbindung zwischen Islam und Gewalt in westlichen Köpfen zu zementieren. Doch wie genau der Begriff zu deuten ist, darüber wird selbst in muslimischen Kreisen heftig diskutiert. Für radikale Islamisten bedeutet Dschihad „heiliger Krieg“, der zur Rechtfertigung einer Reihe von Aktionen dient wie Selbstmordattentate, Sprengstoffanschläge auf Autos oder Zivilisten. Wörtlich bedeutet Dschihad jedoch „Kampf auf dem Wege Gottes“, was gemäßigtere Muslime in erster Line auf einen inneren geistig-seelischen Konflikt beziehen, und wenn schon auf einen äußeren Krieg bezogen, dann lediglich in Verteidigung des Glaubens. Der „Krieg gegen den Terror“, der nach den Anschlägen des 11. September in Afghanistan und dem Irak gewütet hat, wur-

de auf beiden Seiten nicht selten als eine Schlacht der „Herzen und Köpfe“ begriffen. Die Abscheu einfacher Muslime gegen das willkürliche Töten von Zivilisten, darunter Frauen und Kinder, ist verbunden mit dem stark ausgeprägten Gefühl, dass derlei Methoden unislamisch sind und unvereinbar mit dem eigentlichen Geist des Dschihad. Dies müsste also bedeuten, dass die radikalen Islamisten in der ideologischen Schlacht besiegt sind und zunehmend marginalisiert werden. Unglücklicherweise aber erwiesen sich die von den USA gewählten Mittel, den Krieg gegen den Terror zu führen, als ebenso wirksam, auch die gemäßigten Muslime zu befremden. Und insofern tut jede Seite in ihrer Unfähigkeit, die jeweils andere zu verstehen, alles in ihrer Kraft stehende, um die Schlacht um „Herzen und Köpfe“ zu verlieren.

Islamismus schaftliche und kulturelle „westliche“ Imperialismus. Der Westen geht ganz selbstverständlich davon aus, dass „Fortschritt“ eine Bewegung hin zu den eigenen liberalen, säkularen Werten ist, doch genau diese „Verwestlichung“ kommt für viele Muslime nicht infrage und ist für sie Ausdruck einer post-kolonialen Arroganz. Die Motive für die Interventionen der USA in Ländern des Nahen und Mittleren Ostens werden von der arabischen Welt überhaupt infrage gestellt. Und es fällt in der Tat schwer, den vielgehörten Vorwurf zu widerlegen, dass es den USA vornehmlich um das „Plündern der Reichtümer“ in der Region ginge (sprich, die eigenen Öl-Interessen zu schützen) und darum, den „Herrschenden vorzudiktieren“ (sprich die Kontrolle auszuüben, indem sie US-freundliche Regimes unterstützen). Die Tatsache, dass die Aktionen der USA eher von Eigeninteressen geleitet sind denn von Prinzipien, hat die US-amerikanische Außenpolitik durch etliche Jahrzehnte hindurch bewiesen. Zum Beispiel – um nur den berüchtigtsten Fall zu nennen –, zeichnet die US-Unterstützung der afghanischen Mudschaheddin während der sowjetischen Invasion in den 1980er Jahren mitverantwortlich für das Aufkommen der Taliban, Al-Qaida und bin Laden (der in einer arabischen Truppe gegen die Sowjets kämpfte). Der andere große Buhmann der arabischen Welt, Saddam Hussein, wurde ebenfalls von den USA im Iran-Irak-Krieg während der 1980er unterstützt, in der Hoffnung sein Regime würde als Gegengewicht zum islamischen Nachbarstaat Iran fungieren, der vom radikalen Ayatollah Khomeini geführt wurde. Derlei Interventionen gingen selten so auf, wie amerikanische Politikmacher sich das gedacht hatten, zumal sie nichts dazu getan haben, die „Herzen und Köpfe“ der gewöhnlichen Muslime zu gewinnen.

Worum esder geht Ein Zusammenprall Kulturen?

151

152

Ökonomie

38 Kapitalismus Im ersten Jahrzehnt des 21. Jahrhunderts wurde die Weltwirtschaft von Turbulenzen beinahe nie da gewesener Heftigkeit ergriffen. Schwindendes Vertrauen der Konsumenten; Verkäufe und Investitionen kollabierten; Firmenpleiten auf breiter Front; Zwangsversteigerungen von Häusern; in die Höhe schießende Arbeitslosigkeit, das steile Fallen von Aktien- und Häuserpreisen: alle Finanzindikatoren deuteten übereinstimmend auf ein Schrumpfen der Wirtschaft hin, das eine tiefe globale Rezession ankündigte. Wurzel dieser ökonomischen Turbulenzen war eine fatale „Kreditklemme“ – ein massiver Engpass an Krediten für Firmen und Konsumenten. Dieser Engpass war selbst wiederum das Ergebnis eines vorherigen Kredit-Rauschs, der vor allem die Mache aufgeblasener Banker in den Metropolen war, die unzureichend reguliert und risikosüchtig waren; deren scheinbar grenzenlose Hybris und Gier über zwei Billionen „toxische“ Kredite durch die Hauptadern des weltweiten Finanzsystems jagten. Liest man für Gier „Profitstreben“ und für mangelnde Regulierung „freie Wirtschaft“, so wird klar, dass die Finanzkrise des angehenden 21. Jahrhunderts die fundamentalsten Prinzipien des Kapitalismus infrage stellte, des dominierenden Wirtschaftssystems in weiten Teilen der Welt über die meiste Zeit der letzten beiden Jahrhunderte hinweg.



Dem Kapitalismus wohnt die Sünde der ungleichen Verteilung der materiellen Segnungen inne, dem Sozialismus die Tugend der gleichmäßigen Verteilung des Elends. Winston Churchill, 1954



Adam Smith und der freie Handel Auch wenn der Gebrauch des Begriffs „Kapitalismus“ nicht vor 1854 belegt ist, so sind die wesentlichen Prinzipien seiner Dynamik von dem schottischen Ökonomen Adam Smith in seinem bereits 1776 veröffentlichten Werk „Wohlstand der Nationen“ vollständig verstanden und erklärt. Zu diesem Zeitpunkt waren bereits viele der Bedingungen gegeben, unter denen der Kapitalismus gedeihen und erblühen konnte. Die Expansion des Überseehandels hatte eine Kaufmannsklasse hervorgebracht, die es mit ihren unternehmerischen Fähigkeiten vermochte, genügend Reichtum anzuhäufen, um in die neuen Industrien zu investieren, die im

Zeitleiste 1776

1848

1854

1867–1894

Adam Smith formuliert in „Wohlstand der Nationen“ die Prinzipien des freien Handels

Karl Marx sagt im „Kommunistischen Manifest“ den Sturz des Kapitalismus voraus

Der Gebrauch des Begriffes „Kapitalismus“ findet sich erstmals belegt bei William Thackeray (in The Newcomes)

„Das Kapital“ von Marx ist eine grundsätzliche Kritik am Kapitalismus

Kapitalismus Zuge der beginnenden industriellen Revolution entstanden waren. Zur gleichen Zeit fanden sich viele Bauern und Landarbeiter, die ihre Existenz in den feudal geführten Grundherrschaften verloren hatten, in der Bevölkerungsgruppe der freien Lohnarbeiter wieder. Doch war der Handel noch weitgehend behindert von Monopolen und anKeynesianer versus Monetaristen Inwieweit Kontrolle, Regulierung und Intervention seitens des Staates verträglich sind mit dem einwandfreien Funktionieren des kapitalistischen Systems stellt seit jeher die größte Spannungslinie in Theorie und Praxis des Kapitalismus dar. John Maynard Keynes, der wohl einflussreichste Ökonom des 20. Jahrhunderts, schrieb vernichtend von einem „dekadenten internationalen, aber individualistischen Kapitalismus“, der in den Jahren nach dem Ersten Weltkrieg vorherrschend war: „Der Kapitalismus ist kein Erfolg. Er ist weder intelligent noch schön, er ist weder gerecht noch tugendhaft – und außerdem funktioniert er nicht.“ Märkte seien weder perfekt noch selbstregulierend, so Keynes, der deshalb eine staatliche Intervention in Form von höheren staatlichen Investitionen befürwortet, um die Nachfrage in der Wirtschaft anzukurbeln, die Beschäftigung anzuheben und so rezessive Effekte zu überwinden. Die Keynesianischen Ideen beherrschten das wirtschaftliche Denken in den USA und Europa in den Jahren nach der Großen Depression der 1930er Jahre, wurden dann aber ab den 1970er Jahren weitgehend vom Monetarismus verdrängt, einer Doktrin, die vor allem dem amerikanischen Ökonom Milton Friedman zugeschrieben wird. Die Monetaristen

greifen die klassische Sicht der perfekten Märkte wieder auf und führen an, dass eine staatliche Intervention im Sinne Keynes (ein störender Eingriff in ihren Augen) die Inflation nur anheizen und die natürliche Balance der Märkte durcheinander bringen würde. Staatliches Handeln sollte sich darauf beschränken, die Inflation niedrig zu halten (indem man die Geldmenge begrenzt) und externe Beschränkungen auf den Markt zu beseitigen. Der Gegensatz in den Sichtweisen zwischen Keynesianern und Monetaristen spitzte sich zu in der harten wirtschaftlichen Malaise, die die globale Finanzwelt im ersten Jahrzehnt des 21. Jahrhunderts schwer erschütterte. Rettungsversuche mit gigantischen staatlichen Finanzschirmen und milliardenschweren Nothilfeprogrammen zur Stimulierung der Wirtschaft basierten allesamt auf staatlichen Ausgaben und Verschuldungen in nie dagewesener Höhe. Staatliche Intervention von einem so unglaublichen Ausmaß bedeutete den Bankrott (mehr oder weniger im wörtlichen Sinne) des von den Monetaristen so geliebten unregulierten, freien Marktes. Ob eine „keynesianische“ Intervention besser gewesen wäre, sei dahingestellt.

1929

1933

1970er

2007

Börsen-Crash in den USA löst die Große Depression aus

Keynes kritisiert den freien Handel in seinem Aufsatz National Self-Sufficiency

Die monetaristische Politik gewinnt Sympathien in Europa und den USA

Beginn eines tiefen globalen Konjunkturabschwungs („Kreditklemme“)

153

154

Ökonomie

Boom und Pleite Wie Karl Marx 1948 bemerkt, wird der Kapitalismus regelmäßig heimgesucht von „Handelskrisen […], welche in ihrer periodischen Wiederkehr immer drohender die Existenz der ganzen bürgerlichen Gesellschaft in Frage stellen“. Es besteht keineswegs Konsens darüber, was die Gründe sind für diese Zyklen von Wachstum und Rezession, doch sie

sind bemerkenswert hartnäckig. Marx selbst glaubte, diese Instabilität sei systemimmanent, würde sich mit der Zeit verschlimmern, und schließlich zum gewaltsamen Umsturz der Bourgeoisie durch die Arbeiterschaft führen. Allerdings hat er dabei die Fähigkeit des Kapitalismus, sich wechselnden Umständen anzupassen, unterschätzt.

deren staatlich verordneten protektionistischen Maßnahmen. Und vor eben diesem Hintergrund schrieb Smith sein bahnbrechendes Werk. Smith stellte die Behauptung auf, der freie Markt sei der wirksamste Mechanismus zur Koordinierung wirtschaftlicher Aktivitäten. Er erkannte, dass in einem freien Markt, wo dem Drang nach persönlichem Profit die Kräfte des Wettbewerbs entgegengesetzt waren, die Produzenten einen natürlichen Anreiz hätten, die vom Konsumenten gewünschten Produkte und Dienstleistungen bereitzustellen, zu einem Preis, der ihnen selbst einen vernünftigen, keinesfalls aber übertriebenen Gewinn auf ihre Investition bot. Durch die enge Kopplung von Angebot und Nachfrage hätte der Marktmechanismus so eine größtmögliche Effizienz, und die dynamische Beziehung zwischen diesen beiden Kräften würde Kosten (in den Sektoren Produktion, Lohn, Verteilung usw.) und Gewinne in jeweils angemessener Höhe sicherstellen. Laissez-faire Ein entscheidender Aspekt des klassischen Kapitalismus, wie ihn Smith und seine Anhänger verstanden, war, dass er sich natürlichermaßen selbst regulierte: Seine eigenen Variablen (Kosten, Preise, Nachfrage usw.) wurden systemintern bestimmt und reguliert als Funktionen des Systems als Ganzes. Damit konnten diese Variablen weder von einer einzelnen Partei innerhalb des Systems noch von einer Partei außerhalb davon manipuliert werden. Der korrekte Preis eines Produktes beispielsweise war eine Funktion von Angebot und Nachfrage innerhalb eines gegebenen Marktes und konnte weder einseitig noch von außen angeordnet werden, ohne dass hierdurch das ganze System unterminiert würde. Der eigentliche Bereich der Wirtschaft wurde, wahrscheinlich zum ersten Mal in der Geschichte, als eigenständig und grundlegend getrennt von dem der Politik begriffen. Diese Trennung war die theoretische Rechtfertigung für die klassische liberale Doktrin des Laissez-faire – die Idee, dass der Staat jegliche Versuche, die Entwicklungen des Marktes zu planen oder zu dirigieren unterlassen solle. Smith räumte ein, der Staat habe die „Verpflichtung, bestimmte öffentliche Werke und bestimmte öffentliche Institutionen einzurichten und zu erhalten“ – anders formuliert, Einrichtungen, die zu erhalten private Unternehmer kein Interesse haben würden. Die Debatte darüber,

Kapitalismus



Verfechter des Kapitalismus sind sehr gut darin, sich auf die heiligen Prinzipien der Freiheit zu berufen, die in einer einzigen Maxime verankert sind: Der Glückliche darf nicht beschränkt werden in seiner Tyrannei über den Unglücklichen. Bertrand Russell, 1928



ob die Bedürfnisse einer Gesellschaft, wie Transport oder Bildung, in private oder öffentliche Hände gegeben werden solle, hält bis heute an. Ganz abgesehen davon, sollte die Rolle des Staates weitgehend darauf beschränkt sein, den Handel zu erleichtern, etwa durch die Schaffung eines gesetzlichen Rahmenwerks, innerhalb dessen vertragliche Verpflichtungen eingegangen und gehalten werden können. Wachstumsschmerzen Befürworter des Kapitalismus betonen seine beispiellose Fähigkeit, wirtschaftliches Wachstum zu erzeugen. Zweifelsohne fiel die Zeit der kapitalistischen Marktdominanz mit einer spektakulären Steigerung der Wirtschaftsleistung zusammen. Karl Marx räumte 1848 ein, dass die Bourgeoisie, die kapitalistische Klasse, in den einhundert Jahren ihrer Herrschaft „massenhaftere und kolossalere Produktionskräfte geschaffen [hat], als alle vergangenen Generationen zusammen.“ Doch war dies auch eine Zeit gewaltiger Industrialisierungsprozesse, und so sahen die Kritiker des Kapitalismus, allen voran Marx selbst, in der „Unterjochung der Naturkräfte“ (Mechanisierung, Dampfkraft, Eisenbahnen und dergleichen mehr) den hauptsächlichen Grund des Wirtschaftswachstums, nicht in den Marktkräften als solche. Wie Adam Smith bemerkt, ist der Drang, Reichtümer anzuhäufen, das zentrale Anliegen des Kapitalismus, der Unternehmer tendenziell antreibe, ihre wirtschaftlichen Aktivitäten auszubauen. Dies ermöglichte eine schrittweise Arbeitsteilung (Aufspaltung der Fertigungsprozesse in kleinere, simplere Einheiten) sowie andere Leistungsgewinne, die zu der Wirtschaftlichkeit der Massenproduktion beigetragen haben. Während solche Entwicklungen fraglos das Wachstum beförderten (und die Taschen der Kapitalisten noch praller füllten), waren Kritiker wie Marx rasch dabei, die damit verbundene Art von Wachstum anzuprangern. Smith hatte vorgetragen, die „unsichtbare Hand“ des Marktes würde den Einzelnen lenken, im eigenen Interesse zu handeln, um letztlich unbewusst zu einem größeren, kollektiven Wohl beizutragen. Doch die Erfahrung gab solcher Hoffnung kaum Recht. Der neue Reichtum war alles andere als gleichmäßig verteilt, und die Kluft zwischen Reich und Arm wurde größer und größer. Gleichzeitig verschlechterten sich die Bedingungen für die arbeitende Bevölkerung: Sie arbeiteten endlose Stunden in schmutzigen Fabriken an Arbeiten, die sich immer mehr wiederholten und immer langweiliger gestalteten.

Worum es geht Die ungleiche Verteilung wirtschaftlicher Segnungen

155

156

Ökonomie

39 Globalisierung Der US-Ökonom Joseph Schumpeter formulierte einmal flott, die Entwicklung der kapitalistischen Kultur ließe sich „leicht – und vielleicht am treffendsten – beschreiben anhand der Entstehung des modernen Straßenanzugs“. Ein Ansatz, der sich ebenso gut (mit nicht minderem Gewinn) auf das Phänomen der Globalisierung ausweiten ließe, wo der Anzug zur buchstäblichen „Allerwelts“-Uniform der Business-People und Politiker geworden ist, zu einem Symbol der Homogenisierung menschlicher Kultur und Erfahrung auf dem Globus. Die einen sehen in den zunehmend durchlässigen Grenzen der Nationen dieser Welt eine historische Chance, einen freundlichen Kosmopolitismus zu etablieren. Die anderen sehen in der wachsenden Anpassung an westliche Normen die reiche Vielfalt der Völker dieser Erde bedroht und erstickt.

Die Globalisierung ist nichts Neues an sich. Imperialisten, Missionare und Händler früherer Jahrhunderte waren stets bestrebt, ihre Macht, ihren Glauben und ihren Handel so weit als möglich über den gesamten Planeten auszuweiten, und luden auf ihren Wegen wohl oder übel ein bedeutendes Stück ihres kulturellen Gepäcks ab. Das Neue heute aber ist das erstaunliche Ausmaß und das rasante Tempo des politischen, wirtschaftlichen und kulturellen Wandels. Das Globale Dorf Der Prozess der Globalisierung wird angetrieben durch die scheinbare Komprimierung von Entfernung und Zeit, einem Phänomen, das der kanadische Medientheoretiker Marshall McLuhan in den 1960er Jahren in denkwürdiger Weise erforscht hat: Die elektrische Schaltungstechnik hat die Herrschaft von Zeit und Raum gestürzt und überschüttet uns sekundenschnell in einem fort mit den Angelegenheiten aller anderen Menschen. Sie hat den Dialog im globalen Maßstab wieder ermöglicht. Ihre Botschaft ist der totale Wandel, der aller Beschränktheit, sei sie psychischer, sozialer oder ökonomischer Art, ein Ende setzt. Wir haben eine brandneue Welt der vollständigen Gleichzeitig-

Zeitleiste 1962

1971

McLuhan gebraucht den Begriff „Globales Dorf“ erstmals in „Die Gutenberg-Galaxis“

Eröffnung der ersten McDonald’sFiliale in Asien (Tokio, Japan)

Globalisierung keit. Die ,Zeit‘ hat aufgehört, der ,Raum‘ ist verschwunden. Wir leben heute in einem globalen Dorf.

Die „elektrische Schaltungstechnik“, die McLuhan damals (1967) im Sinn hatte, war vor allem das Fernsehen, doch jede im Zuge der informationstechnologischen Revolution erträumte Neuerung bestätigte seine Vorahnung einmal mehr: Mobiltelefone, Internet, E-Mail, soziale Netzwerke – jede neue Technologie erweiterte die Realität der schnellen globalen Kommunikation. Dem Schrumpfen des virtuellen Raumes ging gleichzeitig ein Schrumpfen des ganz realen Raumes einher. Mit günstigen Billigflügen rückten fortan auch die entlegensten Winkel der Welt für Millionen einfacher Leute in erschwingliche Reichweite. Mit der zunehmenden Durchlässigkeit der nationalen Grenzen nahm freilich auch die Auswärts-Strömung sowohl von Gütern als auch von Ideen aus den wirtschaftlich und politisch dominierenden Regionen, allen voran den USA, stetig zu. Der Export von westlichen Produkten und Praktiken und die Konfrontation damit führten unweigerlich dazu, dass eigene lokale Bräuche und Überzeugungen zerfressen oder zumindest verändert wurden. Und als der Strom eine wahre Sturzflut wurde, begannen zum ersten Mal in der Geschichte Ängste wie auch Hoffnungen zu wachsen, dass eine Form von globaler Kultur entstehen könnte. Für Befürworter wie für Gegner dieser globalen Welt ging es um die Realität oder Nicht-Realität einer neuen Weltordnung, um eine gemeinsame politische und wirtschaftliche Arena, gestaltet von einer weltweit vernetzten Technologie. Rosenblüte im globalen Dorfgarten McLuhan war begeistert über die Aussicht auf ein Leben im globalen Dorf, und viele haben seither seinen Optimismus geteilt. Wie etwa der amerikanische Philosoph und vormalige Neo-Konservative Francis Fukuyama, der ein bemerkenswertes, wenn auch extremes Beispiel dafür ist. Auf dem Gipfel der Euphorie nach Ende des Kalten Krieges spekulierte er, der Zusammenbruch der autoritären Herrschaft in der Sowjetunion und anderswo könnte „den Endpunkt der ideologischen Entwicklung der Menschheit und die Universalisierung der westlichen liberalen Demokratie als die letzte Form menschlicher Verwaltung“ markieren. In diesem weltweiDie neue elektronische ten Triumphzug des Liberalismus, so seine gewagte Vermutung, Interdependenz formt die „ist eine wahrhaft globale Kultur entstanden, rund um ein techWelt zu einem globalen nologisch getriebenes Wirtschaftswachstum und die kapitalistischen, gesellschaftlichen Beziehungen, die notwendig sind, um Dorf um. dieses Wachstum zu erzeugen und aufrechtzuerhalten.“ Marshall McLuhan, 1962





1988

2001

2015

Debord bespöttelt McLuhan in „Die Gesellschaft des Spektakels“

Die Angriffe vom 11. September zeigen die globale Reichweite des Terrorismus

Nach Prognosen der WHO wird die Zahl der fettleibigen Menschen weltweit auf 700 Millionen ansteigen

157

158

Ökonomie Man muss gar nicht mal viel kratzen an diesem rosigen Bild von Fukuyama, um zu erkennen, wessen Ideen wohl wirklich den Ton angeben würden auf einer Sitzung des globalen Dorfrates. Zusammen mit vielen weiteren Globalisierungs-Befürwortern baut Fukuyama seine Argumentation auf die weitgehend unbestrittene Annahme, wonach die liberale Marktwirtschaft, so wie sie die westliche Welt in den vergangenen zwei Jahrhunderten entwickelt hat, günstige Auswirkungen hat. Die rasche und unbehinderte Bewegung von Geld und Gütern rund um den Globus, die durch technologische Innovationen heute möglich ist, wird größere Effizienz und größere Vorteile bringen, und zwar allen Beteiligten – den ohnehin reichen Ländern mehr und billigere Waren, den derzeit verarmten Ländern mehr und besser bezahlte Beschäftigung. Im Falle Letzterer wird wachsender Wohlstand zu gegebener Zeit außerdem zu verbesserter Bildung und einer ausgereifteren politischen Kultur führen. Und soweit die Geschichte unser Lehrmeister ist, so wird dies wiederum zu Liberalisierung und Demokratie führen – kurzum, ein Vormarsch über die Grenzen des alten Provinzialismus hinaus in eine neue Richtung, hin zu einer gemeinschaftlicheren und harmonischeren Weltordnung.

Der Mensch ist, was er isst? Nahrungsmittel waren immer schon ein machtvolles Mittel kultureller Übertragung und Wandlung. Pflanzen der Neuen Welt wie Mais, Erdnüsse und Süßkartoffeln kamen mit heimkehrenden Eroberern nach Europa und gelangten von dort aus nach Asien und Afrika, wo sie Anbaupraktiken und das Nahrungsspektrum revolutionierten. Die europäische Nahrung, die über Jahrtausende an lokale und saisonale Feldfrüchte gebunden war, umfasst heute eine kaum überschaubare Fülle exotischer Früchte wie Bananen oder Mangos, während jede Art von Obst oder Gemüse zu jeder Jahreszeit und zu bezahlbaren Kosten verfügbar ist – ganz egal, wie hoch die Umweltkosten dafür sein mögen. Die gigantischen westlichen FastfoodKonzerne wie McDonalds oder Kentucky Fried Chicken waren lange die Buhmänner der Globalisierungs-Gegner. Obgleich viele

der angeführten Gründe eine eher nebensächliche Rolle spielen, werden die Big Macs und Chicken Wings nicht bloß verantwortlich gemacht für eine triste Homogenisierung der weltweiten Ernährung, sondern auch für ein neues Schreckgespenst namens „Globesity“ (globale Fettleibigkeit). Infolge der schlechter werdenden globalen Essgewohnheiten (mehr Fleisch, mehr Fett, mehr Industriezucker), so die Weltgesundheitsorganisation (WHO), werden im Jahr 2015 rund 700 Millionen Erwachsene weltweit fettleibig sein. Was diese vermeintlichen Giganten des Kultur-Imperialismus langfristig anrichten würden, war dennoch selten vorhersehbar, zumal man ihnen auch positive Dinge zugutehielt – freundliche Kellner in Moskau, diszipliniertes Schlangestehen in Hongkong, und weltweit sauberere öffentliche Toiletten.

Globalisierung Rosenfäule Wie scharf die Gegner der Globalisierung schießen können, zeigte 1988 der französische Avantgarde-Denker Guy Debord mit einer beißenden Attacke auf McLuhan, den „überzeugteste[n] Dummkopf des Jahrhunderts“. Der „Weise aus Toronto“ sei ob der trügerischen Freiheiten und Reize dieses „Weltdorfes“ derart in Verzückung geraten, dass er es versäumt habe, auch die ordinären Niederungen des gemeinen Dorflebens hochzuschätzen: „Im Gegensatz zu den Städten sind die Dörfer stets von Konformismus, Isolierung, kleinlicher Bespitzelung, Langeweile und dem stets wiedergekäuten Tratsch über einige wenige und immer dieselben Familien beherrscht worden.“ Konformismus und Langeweile sind die Hauptargumente der anti-globalistischen Kritik. Die abgegriffene und kommerzialisierte Populärkultur der USA und anderer westlicher Länder überschwemmt in dieser Sicht lokale Bräuche und Gewohnheiten. Der unaufhaltsame Vormarsch dieses kulturellen Imperialismus fegt mit Ronald McDonald und Colonel Sanders regionaltypische Küchen kurzerhand über den Haufen. Die authentischen Erzählungen einheimischer Filmemacher gehen unter im schrillen Geschrei der allerneuesten Blockbuster aus Hollywood. Die lebendige Pracht traditioneller Trachten wird von quietschbunten Farben aus dem Hause Benetton und Abercrombie in den Schatten gedrängt. Und hinter all dieser oberflächlichen Konsumherrschaft verbirgt sich die seelenlose Reihe von multinationalen Konzernen – riesige Unternehmen, die „den Westen belügen und den Rest ausbeuten“, indem sie dem Westen Arbeitsplätze klauen, sie in Ausbeutungsbetriebe der Drittweltländer verlagern und dort durch Sklavenarbeit ersetzen. Hybridkultur Wie vorherzusehen war, ist die Wahrheit über die Globalisierung weder so düster noch so rosig wie ihre Gegner bzw. ihre Befürworter glauben machen wollen. Die globale Kultur, die die einen bejubeln, die anderen verschreien, ist vielmehr frei erfunden. Nichts, was einer solchen Kultur nahekäme, existiert derzeit, und es steht auch kaum zu erwarten, dass es in absehbarer Zukunft dazu kommen könnte. Die auffälligste Tatsache, die die umfangreiche Forschung über die Auswirkungen der Globalisierung zutage gefördert hat, ist die, dass sie alles andere als eine Einbahnstraße ist. Wenn unterschiedliche Kulturen aufeinandertreffen, ist es fast nie der Fall, dass eine einfach dominiert und die andere verdrängt. Vielmehr befruchten sie sich gegenseitig in einem schleichenden Prozess, der etwas ganz Neues und ganz Anderes entstehen lässt – und für alle Seiten bereichernd sein kann. Am Ende stehen wir vor der nicht sonderlich überraschenden Tatsache, dass Menschen, weil sie nun einmal Menschen sind, andere Geschmäcker, andere Klänge neugierig ausprobieren, wenn diese verfügbar werden, nichtsdestotrotz aber ein starkes Gefühl der Zugehörigkeit zu einen bestimmten Ort beibehalten und an einem komplexen System lokaler Bräuche und Überzeugungen teilhaben.

Worum es geht Leben im Globalen Dorf

159

160

Kunst

40 Klassizismus Die Schönheit der Architektur definiert Leon Battista Alberti, der um die Mitte des 15. Jahrhunderts schrieb, als „eine bestimmte gesetzmäßige Übereinstimmung aller Teile, … die darin besteht, daß man weder etwas hinzufügen noch hinwegnehmen könnte, ohne sie weniger gefällig zu machen.“Alberti, italienischer Künstler, Architekt und Universalgelehrter, schrieb Abhandlungen über Malerei, Bildhauerei und Architektur, womit er sich als führender Theoretiker der Renaissance einen Namen machte. Die „gesetzmäßige Übereinstimmung“, von der Alberti spricht, bezieht sich auf die Grundsätze und Richtlinien, die sich verkörpert finden in den großartigen architektonischen Zeugnissen der griechischen und römischen Welt. Nicht minder gilt seine Charakterisierung von Schönheit für andere Formen des künstlerischen Ausdrucks, fängt sie doch den Geist des Klassizismus prägnant und präzise ein.

Für Alberti und Zeitgenossen waren die Gebäude, Skulpturen, Theaterstücke, Gedichte und theoretischen Werke der Antike eine unmittelbare Inspiration: Sie waren „klassisch“ – im lateinischen Sinne des Wortes von „höchster Klasse“. Und sie boten einen Kanon der Perfektion: Eine Reihe von Standards und Paradigmen, nach denen sie streben und an denen sie ihre eigenen Errungenschaften messen konnten. Diese Bewunderung für die Werke alter Zeiten umfasste freilich auch die mannigfaltigen Eigenschaften, die sich, wie man glaubte, darin zeigten und ihnen ihre konkreten Formen gaben: Harmonie, Symmetrie, Proportionalität, Klarheit im Ausdruck; Verzicht auf unnötige Details und Schnörkel. Die Renaissance war die erste Epoche, die das große Wiederaufleben der Ausdruckskraft jener Werte der griechischen und römischen Antike kennzeichnet, nicht aber die letzte. Der Begriff „Klassizismus“ wurde auf eine Reihe nachfolgender künstlerischer und ästhetischer Bewegungen übertragen. Während der klassizistische Kanon in der Theorie ausschließlich die Werke der alten Griechen und Römer umfasste, wurde er in der Praxis doch beständig revidiert und durch spätere Werke erweitert, die selbst wiederum einen Kanon bildeten. Und so strebten die Künstler späterer klassizistischer Traditionen, anstatt oder neben den Werken der Antike auch den Werken großer Renaissance-Künstler nach, wie etwa Michelangelo, Raffael und

Zeitleiste 1420–1436

ca.

Filippo Brunelleschi baut die Kuppel des Florentiner Doms

Die Geißelung Christi, Tafelbild von Piero della Francesca

1450

1501–1504

1508–1509

1509–1510

David von Michelangelo

Das Haus Raffaels von Donato Bramante

Die Schule von Athen von Raffael

Klassizismus



Roms Genius, der über seine Ruinen ausgebreitet lag, schüttelt den Staub ab, und richtet sein ehrwürdiges Haupt empor. Da erwachte die Bildhauerkunst mit ihren Schwestern. Steine nahmen Gestalt an, und Felsen begannen zu leben ... Alexander Pope, Ein Versuch über die Kritik, 1711



Bramante. Bisweilen wird der Begriff „neoklassizistisch“ gebraucht, um auf das wiederauflebende Interesse an klassischen Modellen zu verweisen, das durch das besondere Verlangen gekennzeichnet ist, das kanonische Erbe neu zu betrachten oder neu zu interpretieren. In der Praxis jedoch sind derlei Beweggründe nur schwer zu unterscheiden von jenen des Klassizismus, und so werden die beiden Begriffe oft mit einem nur geringen oder gar keinem Bedeutungsunterschied verwendet. Die Mathematik der Natur In der Bildenden Kunst werden die Eigenschaften des Klassizismus mit seinen schnörkellosen Prinzipien besonders geschätzt als ein Gegenmittel zu den wahrgenommenen künstlerischen Freiheiten und Exzessen anderer Stilrichtungen wie etwa in der Gotik, im Barock oder in der Romantik. Es liegt wohl an diesem Gegensatz zu solcherlei Extravaganzen, der fortan die Ausrichtung für nachfolgende klassizistische Modelle bestimmt, eine nüchterne Fertigkeit, die Realität nachzubilden und somit „naturgetreu“ zu sein. Diese Antriebskraft steckt auch hinter einer Übertreibung des Malers und Architekten Giorgio Vasari, als er in seinem Werk Lebensbeschreibungen der berühmtesten Maler, Bildhauer und Architekten (1550) behauptet, die zeitgenössischen Florentiner Künstler, und insbesondere Michelangelo, hätten in ihrer Kunst sowohl die Natur als auch die antiken Vorbilder hinter sich gelassen. Die strikten Regelkodizes und Konventionen, die für den Klassizismus so charakteristisch sind, sind die rationalen Mittel, die den Künstler unterstützen, den großen Meistern der Vergangenheit nachzuahmen und ihn dem Ziel, dem Realismus oder Naturalismus, näherbringen. Alberti war überzeugt, dass die „Gesetze, mittels derer die Natur ihre Werke erschafft“, auch auf die Werke der Architektur übertragen werden können, und entwickelte zu diesem Zwecke eine Theorie der Proportionen, die menschliche und architektonische Formen verknüpft. Auf dem Gebiet der perspektivischen Malerei greift Albertis Zeitgenosse Piero della Francesca mathematische Regeln auf und erschafft geordnete und harmonische Kompositionen von einzigartiger geometrischer Reinheit. Eine ähnliche Schlichtheit findet sich in der klassisch inspirierten Architektur

1640

1648

1677

1711

1793

Horaz von Pierre Corneille

Landschaft mit der Beerdigung des Phocion von Nicolas Poussin

Phädra von Jean Racine

Ein Versuch über die Kritik von Alexander Pope

Tod des Marat von Jaques-Louis David

161

162

Kunst von Filippo Brunelleschi, einem Freund Albertis, zu dessen Werken auch die prächtige Kuppel des Florentiner Doms zählt. Das Verlangen, den naturalistischen Raum in lebensechten Kompositionen darzustellen, brachte Brunelleschi dazu, ein System der mathematisch konstruierbaren Perspektive zu entwickeln, dessen theoretisches Regelwerk in Abhandlungen sowohl von Piero als auch von Alberti formalisiert wurde. Pieros „Die Geißelung Christi“ (La Flagellazione di Christo) gilt als eines der berühmtesten und gelungensten Beispiele für die Illusion von Tiefe, die durch den mathematischen Umgang mit Perspektive entsteht. Der spätere Klassizismus Im 17. Jahrhundert erlebte der Klassizismus eine zweite Blüte, vor allem in Italien und Frankreich. Der Franzose Nicolas Poussin war die führende Figur in einer Gruppe von Künstlern, die hauptsächlich in Rom aktiv war, und die den blumigen Schwulst und die formelhafte Expressivität des Barock entschieden ablehnte. Stattdessen kombinierten diese Künstler barocke Farben mit einer wiederbelebten antiken Formensprache. Poussin war stark beeinflusst von dem Bologneser Maler und Bauzeichner Domenichino, der einen nüchtern strengen Klassizismus geprägt hatte mit simplifizierten und statischen Kompositionen, grandiosen Figuren und archäologisch präzisen Details. In den 1640er Jahren, auf der Höhe seiner Schaffenskraft, verfeinerte Poussin die Idee der „idealen Landschaft“, deren natürliche Elemente Ausdruck einer nahezu mathematischen Ordnung und kontemplativen Größe waren. Im Haus der Antike Die Spannbreite des Begriffs „Klassizismus“ hat sich über die Jahre stetig erweitert, so weit, dass so benannte künstlerische Strömungen heute unter Umständen nur wenig oder gar keine Inspiration aus der klassischen Welt bezogen haben. Es mag schon ausreichen, dass sie sich beispielsweise durch eine besondere Reinheit, oder eine Klarheit im Ausdruck auszeichnen. Tatsächlich wird der Begriff „klassisch“ heute derart verworren gebraucht, dass er für beinahe alles verwendet werden kann, dass als einigermaßen definitiv oder perfekt betrachtet wird, vom geschmeidigen Schwung eines Golfspielers bis hin zu einem zeitlos attraktiven Musikstück. Diese ausgehöhlte Bedeutung ist weit entfernt vom ersten Wiederaufleben des Klassizismus in der Renaissance, als die von alten Zeiten inspirierten Humanisten den antiken Meister nicht so sehr huldigten, sondern sie

vielmehr als Freunde und Vertraute betrachteten. In einem 1513 geschriebenen Brief schildert der politische Theoretiker Niccolò Macchiavelli seine Lesegewohnheiten und gibt damit einen faszinierenden Einblick, wie er sich zu verlieren vermag in der Gesellschaft seiner „antiken“ Bekannten: „Wenn es Abend wird, kehre ich heim und gehe in mein Studierzimmer. An der Tür entledige ich mich meiner mit Dreck und Staub bedeckten Alltagskleidung und ziehe herrschaftliche und höfische Kleider an. So bekleidet, wie es sich gehört, trete ich in die altehrwürdigen Höfe der Alten ein. Von ihnen liebenswürdig empfangen, nehme ich von der Speise zu mir, die allein die meine ist und für die ich geboren bin. Ich schäme mich nicht, mit ihnen zu sprechen und nach den Gründen ihres Tuns zu fragen, und sie sind menschlich genug, mir zu antworten.“

Klassizismus Poussin selbst hatte starken Einfluss auf den französischen Historien- und Porträtmaler Jaques-Louis David, den größten Vertreter des Neoklassizismus, der im späten 18. und frühen 19. Jahrhundert seine Blüte erlebte. In Ermangelung antiker Vorbilder für seine Kunst, orientierte sich David ehrfürchtig am Beispiel Poussins. In seinen eigenen streng vornehmen Kompositionen sind die Formen sehr viel stärker simplifiziert, und die Details sehr viel archäologischer, doch in seinen besten Werken erreicht er einen großen poetischen Realismus, wie zum Beispiel mit Der Tod des Marat (1793), und zwar ohne etwas von seiner klassizistischen Haltung einzubüßen. Die Natur vorteilhaft eingekleidet Die Reize der antiken Literatur waren im Wesentlichen die gleichen wie die der Bildenden Kunst: der Vorrang der Vernunft gegenüber der Emotion; Ausdruck von universell gültigen Ideen; der Stil geprägt von Klarheit, Kontrolle und Würde. Die Freude am anscheinend mühelosen und dennoch kunstvollen Ausdruck, ohne ein einziges verschwendetes Wort, bringt der Dichter Alexander Pope in seinem Gedicht „Ein Versuch über die Kritik“ von 1711 exakt auf den Punkt (ohne ein Wort zuviel, versteht sich): „Wahrhaft geistreich ist, wer die Natur vorteilhaft einzukleiden weiß: das nämlich, was schon häufig gedacht worden war, aber noch nie so gut formuliert.“ Auch bei Pope findet sich das für den Klassizismus typische Beharren auf der Wahrhaftigkeit gegenüber der Natur, das ihm durch die Einhaltung altehrwürdiger Regeln gelingt: Jene Regeln, alt entdeckt, nicht erfunden, sind Natur, noch immer, aber Natur methodisch veredelt – Die Natur ist, wie die Freiheit, alles andere als gezügelt, durch jene Regeln, die sie im Anfang selbst bestimmt haben.

Pope war der führende Vertreter des Augusteischen Zeitalters in England, so benannt nach dem römischen Kaiser Augustus, dessen Regentschaft die Hochblüte von Dichtern wie Horaz und Vergil war. Eine gar noch striktere Form des Neoklassizismus hat es im vorangegangenen Jahrhundert auf der französischen Bühne gegeben. Dort kamen eine Reihe von Regeln streng zur Anwendung, die die Einheiten genannt werden und hergeleitet sind aus der Poetik des Aristoteles. Gemäß diesen Regeln war ein Theaterspiel beschränkt auf eine einzige Handlung, auf einen einzigen Ort sowie auf einen Zeitrahmen von 24 Stunden. In den Händen großer Meister wie Corneille und Racine konnten diese Einheiten Dramen konzentrierter Kraft und psychologischer Tiefe erzeugen. In weniger begabten Händen jedoch geriet eine sklavische Nachahmung innerhalb des so streng geregelten Handlungsrahmens mitunter auch zu Schwerfälligkeit und Tölpelei.

Worum es geht Roms Genius, der über seine Ruinen ausgebreitet lag …

163

164

Kunst

41 Romantik Stürmisch, den Säbel schwingend, galoppiert ein Kavallerieoffizier auf einem sich bäumenden, wildäugigen Hengst furchtlos hinein in das hochrot wirbelnde Feuerinferno, das die Flammen der Hölle sein könnten – dem sicheren Untergang entgegen. „Ich kann mit diesem Pinselwerk nichts anfangen“, kommentierte Jacques-Louis David, als er 1812 den wirbelnden Farbkörper Offizier der Gardejäger beim Angriff des 21-jährigen Théodore Géricault im Pariser Salon beschaute. David, über vier Jahrzehnte älter als Géricault, war der unbestrittene Führer unter Frankreichs neoklassizistischen Malern, der gerade das statische Monumentalgemälde Die Krönung Napoleons gefertigt hatte. Wieso also sollte er sich aus der Malerei eines jüngeren Zeitgenossen viel machen?

Die rohe Dynamik von Géricaults Offizier war weit entfernt von der strengen und wohldurchdachten Ruhe von Davids Leonidas, Sokrates, Brutus – oder Napoleon. Der düstere Kavallerist, der heroisch in eine unbenannte Schlacht reitet – er kündet forsch vom Beginn eines neuen Bewusstseins. Die minuziösen, gradlinigen Formen des Neoklassizismus waren fortan ersetzt durch lockere, gröbere Ausführungen. „Der Genius ist das Feuer eines Vulkans, das ausbrechen muss und ausbrechen wird“, erklärt Géricault, „denn der wahrhaft kreative Künstler ist durch die Gesetze seines Wesens gezwungen die Welt zu bescheinen, zu erleuchten und zu erstaunen.“ Eigenwillig und ungestüm, besessen vom Tod und vom Makabren (er malte in einer Reihe von Stillleben die abgetrennten Köpfe und Gliedmaßen von Verbrechern); und starb selbst nach einer stürmischen, gerade einmal elf Jahre währenden Karriere. Géricault war all das, was David nicht war. Er war alles, was man von einem Künstler erwarten durfte, der erfüllt war von dieser neuen Ästhetik, die Kritiker später als „Romantik“ bezeichneten. Die Romantik, mit der sich ein tiefgreifender Wandel in der Lebenseinstellung und Weltanschauung vollzog, fegte vor und nach Beginn des 19. Jahrhunderts über ganz Europa hinweg. Géricault wurde zu einem der Pioniere der romantischen Strömung. Ihre Wurzeln hatte diese neue Geistesbewegung in philosophischen Spekula-

Zeitleiste 1774

1789

1800

1800/1802

Die Leiden des jungen Werther von Johann Wolfgang von Goethe

Songs of Innocence (Songs of Experience, 1794) von William Blake)

System des transzendentalen Idealismus von Friedrich von Schelling

Vorwort zu Lyrische Balladen (1798, zusammen mit S. T. Coleridge) von William Wordsworth

Romantik



tionen aus Deutschland. Sie markiert einen umfasUm die Welt in einem Sandkorn senden kulturellen Umbruch, der keineswegs auf zu sehn und den Himmel in einer die Malerei oder allgemein die Kunst beschränkt blieb. Die Romantik war, wie John Stuart Mill 1837 wilden Blume, halte die Unendlichkeit auf deiner flachen Hand und bemerkt, eine „Epoche der Reaktion auf die Enge des 18. Jahrhunderts“, nicht bloß ein „Aufstand ge- die Stunde rückt in die Ewigkeit. gen die alten Traditionen des Klassizismus“, sonWilliam Blake, „Auguries of Innocence“, dern eine Rebellion gegen das, was der neuen Geneca. 1803 ration als starre Rationalität der Aufklärung erschien. Gemäß dieser neuen Ästhetik rücken neue Charakteristika in den Vordergrund: individueller Selbstausdruck, nicht selbstloses Arbeiten innerhalb einer etablierten Tradition; spontan bewegter Drang, nicht gelehriges Kultivieren; kreativer (und oft rabiater) Genius, nicht vollendete (und stets verfeinerte) Imitation. Die sogenannte „Romantische Epoche“ wird üblicherweise auf die erste Hälfte des 19. Jahrhunderts festgelegt, in Wahrheit aber ist ihr Einfluss



Tödliche Affäre Die neuen Ästheten der romantischen Bewegung waren darauf aus, die Energien des menschlichen Geistes freizusetzen, sie aufsteigen zu lassen und ihre Freude und Begeisterung zu besingen. In ihren Jubelliedern jedoch schwang immer auch ein leiser Ton von Melancholie mit, überschattet von Tod – sie enthüllen die Widersprüche im Geist, die sich im langen Leben des größten deutschen Dichters, Johann Wolfgang von Goethe, gut widerspiegeln. In jungen Jahren war Goethe eine führende Figur einer rebellischen Strömung der deutschen Literatur namens „Sturm und Drang“, die von jungen Schriftstellern getragen wurde und den Beginn einer neuen Empfindsamkeit in der Romantik wesentlich mitbestimmte. Der

Roman, den Goethe damals schreibt, Die Leiden des jungen Werther (1774), und in dem es um die unerwiderte Liebe eines Künstlers und dessen Selbstmord geht, schafft einen Prototypen des gepeinigten Außenseiters in einer Rolle, die später von Helden der Romantik, wie Shelley und Byron, in aller Öffentlichkeit und in Perfektion gespielt wurde. Goethe jedoch lässt seine rebellische Jugend hinter sich, findet bekanntlich zu klassischer Reife und bemerkt drei Jahre vor seinem Tod im Jahr 1832 reumütig: „Klassik ist Gesundheit, Romantik ist Krankheit“ – eine Krankheit, die nicht selten tödlich verlief, und die Géricault, Shelley, Byron und Keats zu ihren zahlreichen Opfern zählt.

1812

1814

1819–1824

1821

1839

Offizier der Gardejäger beim Angriff von Théodore Géricault

Waverly (deutsch: „Waverley, oder: Vor sechzig Jahren“), von Sir Walter Scott

Don Juan von Lord Byron

Adonais. An Elegy on the Death of John Keats von Percy Bysshe Shelley

Sketches and Essays von William Hazlitt, (posthum erschienen

165

166

Kunst – die stete Betonung von Originalität und Leidenschaft, von offenem und authentischem Ausdruck – bis heute ungebrochen. Ein Völkchen für sich Typisch und ganz wesentlich für die Romantiker war die Abwendung vom (Neo-)Klassizismus. So schreibt der englische Kritiker William Hazlitt in seinem Aufsatz On Taste („Über den Geschmack“) freiheraus: „Regeln und Vorgaben zerstören Genius und Kunst“. Auch das ancien régime, mit dem der Klassizismus untrennbar verbunden war, lehnten die Romantiker ab. Voller Begeisterung für die republikanischen Ideale der französischen Revolutionäre, schwärmt der englische Dichter William Wordsworth in einer berühmten Zeile: „Eine Wonne, diesen Anbruch zu erleben, doch jung zu sein, das war der wahre Himmel.“ Zugleich aber war die Romantik in außergewöhnlicher Weise vielgestaltig und durchzogen von tiefen Widersprüchen – ganz wie es sich geziemt für eine Bewegung, die Individualität und Selbstausdruck über alles stellt. Als eine Lichtgestalt dieser neuen Ästhetik und einer der wortgewandtesten Vertreter der englischen Romantikbewegung, verfasst Wordsworth für die Gedichtsammlung Lyrische Balladen ein langes und leidenschaftlich argumentierendes Vorwort (1800, erweitert 1802), das heute als ein Manifest der Romantikbewegung angesehen wird. Schon zu diesem frühen Zeitpunkt sind darin viele der Spannungen innerhalb der Bewegung erkennbar. In einem berühmten Absatz beispielsweise stellt er die Frage: „Was ist ein Dichter?“ „Er ist ein Mensch, der zu Menschen spricht: Ein Mensch, das ist wahr, der mehr lebendige Empfindsamkeit in sich trägt, mehr Schwärmerei und Zartheit, der mehr Wissen besitzt über die menschliche Natur, eine reichere Seele hat, als man dies von der Menschheit gemeinhin denkt; ein Mensch, der sich freut über die eigenen Leidenschaften und Willenskräfte, der sich mehr als Andere erfreut am Lebensgeist, der ihm inne ist.“ Der Poet ist ein Mann des Volkes, der in Volkes Sprache zu ihm spricht – ein Mensch mit liberaler Gesinnung freilich, der mit den fortschreitenden Kräften der Zeit geht. Gleichzeitig aber trennt der reale Poet den imaginären Poeten von sich ab, verleiht ihm eine gesteigerte Empfindsamkeit, eine gesteigerte Bewusstheit, und so bleibt dieser auf immer von den Massen entrückt. DieFremdheit und Schönheit se freien Geister der Romantik, die sich triumphal befreien von den Fesseln der Aristokratie, um ihre eigenen Spuzusammen formen den ren in der Welt zu hinterlassen, definieren die Kunst romantischen Charakter der nichtsdestotrotz neu als die am höchsten verfeinerte aller Kunst. Tätigkeiten, als eine, die sie zwangsläufig von der breiten Masse unterscheiden muss. Walter Pater, englischer Kritiker, 1889





Romantik

Die Natur und der Spiegel der Seele Die philosophische Grundlage der Romantik war das Erheben der Natur über die Zivilisation (beeinflusst von Jean-Jacques Rousseau), verbunden mit der Vorstellung, die Natur sei letztendlich der Spiegel der Seele (beeinflusst von Immanuel Kant). Im Vorwort zu den Lyrischen Balladen erklärt Wordsworth, wie der Poet den Menschen und die Natur „als im Wesentlichen aneinander angepasst betrachtet, und den Geist des Menschen als einen natürlichen Spie-

gel der heitersten und interessantesten Eigenschaften der Natur“. In dieser feinsinnigen Verknüpfung der Ideen beginnt die Liebesaffäre des Romantikers mit sich selbst – mit der Schöpferkraft des eigenen Geistes. Die Romantiker sehen in der Natur die Offenbarung des Göttlichen (was Thomas Carlyle 1831 den „natürlichen Supernaturalismus“ nennt), und demzufolge eine unmittelbare Begründung für die Erhebung des Dichters zum Helden – oder Gott.

Die Erde hat den alten Glanz verloren „Der klassische Geist studiert die Vergangenheit, der romantische Geist vernachlässigt sie“, so Friedrich von Schelling, der führende Philosoph der deutschen Romantik. Während der Klassizismus an der Antike orientiert und vergangenen Traditionen verhaftet war, war die Romantik durchwirkt von einer tiefgreifenden Nostalgie, einer Sehnsucht sowohl nach der verloren gegangenen Unschuld der Kindheit als auch der verlorenen gegangenen Vornehmheit vergangener Zeiten. In den Werken von William Blake und Wordsworth, die stark beeinflusst sind von Rousseau, wird die reine Vorstellungskraft des Kindes erhoben über die schmähliche und korrumpierte Uneigentlichkeit des Erwachsenseins. In einem ähnlichen Geist wird die Würdigkeit des ländlichen Lebens erhoben über das kalte und seelenlose Dasein in den sich industrialisierenden Städten. Das tiefe Sehnen nach Vergangenem ist häufig auf eine imaginäre, idealisierte Vergangenheit gerichtet. In seiner Ode Hinweise auf die Unsterblichkeit (Intimations of Immortality) von 1807 schreibt Wordsworth von einer Welt, die für immer verloren ist, denn „die Erde hat den alten Glanz verloren.“ Eine weitere Linie der romantischen Manie einer idealisierten Vergangenheit zeigen die Werke von Walter Scott, dessen historische Romane erfüllt sind von wagemutigen Heldentaten und reichlich nostalgischer Rührseligkeit – „fast wie eine Neuausgabe der menschlichen Natur“, wie Hazlitt befand. Derlei gefühlsgesättigte Erzählungen von Ritterlichkeit und Heldenmut waren in der Tat „Romanzen“ im altherkömmlichen Sinne des Wortes, von dem die Romantik ihren Namen hat.

Worum es geht Fremdheit und Schönheit zusammen

167

168

Kunst

42 Moderne Auch wenn sie mitunter als eine eigenständige Ästhetik oder Bewegung beschrieben wird, so ist die Moderne doch weitaus mehr, als eine solche Beschreibung nahelegt. Es handelt sich um eine innere Einstellung, eine Überzeugung, eine bestimmte Denkhaltung mit einem bestimmten Blick auf die Welt und einer ganz besonderen Art, der Modernität in ihrer ganzen Breite zu begegnen und sich auf sie einzulassen. Eine genauere Definition hängt davon, von welcher Moderne gerade die Rede ist, was von einem vergleichsweise eng gefassten künstlerischen oder kulturellen Kontext reichen kann bis hin zu der vollen Palette der Umbrüche und Entwicklungen – kulturellen, sozialen, politischen, philosophischen, wissenschaftlichen –, die die sogenannte „moderne“ Epoche ausmachen. Derlei weiter oder enger gefasste Definitionen sind nicht unabhängig von einem Kontext. Im Kontext der westlichen Welt ist die Moderne in ihrem weitesten Sinne mehr oder weniger präzise definiert durch die intellektuellen, rationalen und säkularen Kräfte, die seit Beginn der Aufklärung im 17. Jahrhundert gewirkt haben. Angestoßen durch bedeutsame Errungenschaften von Marx, Darwin, Freud, Einstein und anderen vollzogen sich im 19. und frühen 20. Jahrhundert eine Reihe von richtungsweisenden Veränderungen im menschlichen Verständnis der Welt und der Stellung des Menschen selbst in dieser Welt. Teils in Übereinstimmung mit der neuen Sicht auf die Welt oder in Reaktion auf dieses neue Weltbild, das diese revolutionären Denker gezeichnet haben, entstanden in den ersten Jahrzehnten des 20. Jahrhunderts zahlreiche dynamische Ausprägungen der Moderne. Ein weiterer entscheidender Katalysator für das moderne Denken war der Ausbruch des bis dahin grausamsten und traumatischsten Krieges der Geschichte im Jahr 1914. Im Großen und Ganzen gilt die moderne Phase der Geschichte als progressiv, und sporadisch auch als revolutionär. Und so neigen Vertreter der Moderne dazu, sich selbst, und oftmals nur sich selbst, als die Begründer der kulturellen Avantgarde zu begreifen – innovativ, radikal, fordernd, experimentell. Die Moderne zeigt zudem die Tendenz, selbstbezogen zu sein, bisweilen gar introvertiert. Sie betrachtet die eigenen Anstrengungen und Errungenschaften als vollkommen wertvoll und so-

Zeitleiste 1909

1913

1922

Schönberg, Drei Klavierstücke op. 11, (erste atonale Kompositionen)

Strawinskys Ballett Die Frühlingsweihe

Ulysses von James Joyce und Das wüste Land von T. S. Eliot

Moderne mit schon für sich allein genommen aller Mühen wert, ohne Rücksicht auf einen breiteren Kontext. So gesehen, konnte der Fortschritt als purer Selbstzweck erscheinen, Kunst als eine autonome Domäne. Und dementsprechend wurden die modernen Künstler wahrgenommen als eine Bewegung, die die Parole der Ästhetiker des 19. Jahrhunderts wieder aufgreift: „Kunst um der Kunst willen!“ Sicherlich scheint ein Teil der intellektuellen Inspiration der Moderne aus der zweiten Hälfte des 19. Jahrhunderts zu kommen, von dem französischen Dichter und Kritiker Charles Baudelaire beispielsweise oder dessen Dichterkollegen Arthur Rimbaud, der 1873 schrieb: Il faut être abolument moderne („Man muss absolut modern sein“).

Die Zeit der verlorenen Unschuld So wie die Moderne eine Reaktion auf die (oder eine Erweiterung der oder ein Zwiegespräch mit oder eine Kritik an oder ein Kommentar zu der) frühen Neuzeit ist, so ist die Postmoderne eine Reaktion auf die (oder eine Erweiterung der oder ein Zwiegespräch mit der) Moderne. Und aus denselben Gründen ist sie eine sehr schlüpfrige, schwer zu fassende Idee. Eines aber kann die Postmoderne nicht. Sie kann nicht so tun, als habe die Moderne nicht stattgefunden. Und ebenso wie die Moderne zu Beginn des 20. Jahrhunderts von einem gewissen Ernst ihres Zweckes geprägt war, war die Postmoderne gegen Ende des vorigen Jahrhunderts erfüllt von einem gehörigen Maß an Wissen und Kenntnis, vor allen Dingen aber von Ironie. In seiner „Nachschrift zum Namen der Rose“ (1983) zeichnet der italienische Schriftsteller Umberto Eco die vorherrschende Stimmung mit einer bezaubernden postmodernen Leichtigkeit sehr schön nach: „Die postmoderne Antwort auf die Moderne besteht in der Einsicht und An-

erkennung, daß die Vergangenheit, nachdem sie nun einmal nicht zerstört werden kann, da ihre Zerstörung zum Schweigen führt, auf neue Weise ins Auge gefaßt werden muß: mit Ironie, ohne Unschuld. Die postmoderne Haltung erscheint mir wie die eines Mannes, der eine kluge und sehr belesene Frau liebt und daher weiß, daß er ihr nicht sagen kann: ‚Ich liebe dich inniglich’, weil er weiß, daß sie weiß (und daß sie weiß, daß er weiß), daß genau diese Worte schon, sagen wir, von Liala geschrieben worden sind. Es gibt jedoch eine Lösung. Er kann ihr sagen: ‚Wie jetzt Liala sagen würde: Ich liebe dich inniglich.‘ In diesem Moment, nachdem er die falsche Unschuld vermieden hat, nachdem er klar zum Ausdruck gebracht hat, daß man nicht mehr unschuldig reden kann, hat er gleichwohl der Frau gesagt, was er ihr sagen wollte, nämlich daß er sie liebe, aber daß er sie in einer Zeit der verlorenen Unschuld liebe.“

1925–1926

1927

1930

1939

Bauhaus in Dessau von Gropius

Weißenhofsiedlung in Stuttgart von Mies van der Rohe

Schweizer Pavillon in Paris von Le Corbusier

Finnegans Wake von James Joyce

169

170

Kunst In Richtung Abstraktion Im Bereich der Bildenden Kunst brachten die Kräfte der Moderne vor und zu Beginn des 20. Jahrhunderts eine kaum überschaubare Fülle avantgardistischer Stilrichtungen und Bewegungen hervor, darunter Postimpressionismus, Expressionismus, Kubismus, Symbolismus, Vortizismus, Dadaismus, Futurismus und Surrealismus. Die schöpferischen Ideen hinter diesen Strömungen waren so vielgestaltig und die Richtungen, die sie nahDie Moderne ist das men, so verschieden, dass es kaum zu einer besseren Vergängliche, Flüchtige, Einsicht verhilft, sie alle unter dem einen Begriff der Mögliche, eine Hälfte der Moderne zu subsumieren. Alle Künstler der Moderne trachteten mehr oder weniger ausgeprägt danach, die Kunst, deren andere das Ewige Normen und Konventionen der Vergangenheit zu unterund Unwandelbare ist. laufen oder sie hinter sich zu lassen. Damit entstand eine Charles Baudelaire, 1869 neue, eine geänderte Sichtweise auf die Funktion der Kunst. Eine, die die althergebrachten Sichtweisen, die bis zu Aristoteles und der Antike zurückreichen, infrage stellte, wonach Schönheit und ästhetischer Wert in der Imitation und Repräsentation (mimesis) zu finden seien, ein Ideal, das dem Realismus und dem Glauben Vorschub leistete, die Rolle des Künstlers sei es, der Natur einen Spiegel vorzuhalten. Die Ablehnung dieser Grundsätze, die über Jahrtausende das Kunstverständnis bestimmt hatten, eröffnete den Marsch (und keineswegs einen reibungslosen) in Richtung Abstraktion, welche die Entwicklung der Kunst im 20. Jahrhundert weithin bestimmen sollte.





Immer wieder mach es neu … „Wir müssen unsere Gewohnheit des Immerweiter-so-und-immer-geradeaus, vom Start bis zum Ziel, fallenlassen und unserem Geist erlauben, sich in Kreisen zu bewegen, hin und her zu flirren durch Haufen von Bildern.“ Dieser eindringliche Appell von D. H. Lawrence an die Schriftsteller seiner Zeit, die alten und müden viktorianischen Konventionen mit ihren erzählerischen und chronologischen Strukturen zu durchbrechen, hatte bereits seine Antwort gefunden, als er ihn 1932 formulierte. Ein Jahrzehnt zuvor, im Jahr 1922, hatte die Literatur der Moderne ihr annus mirabilis erlebt, als mit Ulysses von James Joyce und Das wüste Land von T. S. Eliot die wohl größten Meisterstücke der Prosa und Poesie erschienen. Eliots verzweifeltes, von finsterem Humor erfülltes Gedicht ist eine Kollage bruchstückhafter Bilder und komplexer Anspielungen, ein dichterisches Kaleidoskop wechselnder Perspektiven und Blickpunkte. Ulysses, der Roman von James Joyce, nutzt währenddessen den inneren Monolog sowie den sogenannten stream of consciousness („Bewusstseinsstrom“), eine Erzähltechnik, die in einer noch nie dagewesenen Weise die Gedanken, Erinnerungen und Wahrnehmungen der Figuren wiedergibt. Später, 1939, in Finnegans Wake kombiniert Joyce den stream of consciousness mit vielsprachigen Wortspielen und einer rätselhaften „Traumsprache“, und schiebt damit die Grenzen der sehr komplexen und schwer verständlichen Erzählweise, für die viele Werke der modernen Literatur kritisiert worden sind, noch weiter hinaus.

Moderne



Jenseits der Tonalität Unter Komponisten wie auch unter Malern Immer wieder machten sich die Kräfte der Moderne zwar bemerkbar, boten aber kei- mach es neu. ne eindeutige Richtung und keine einheitliche Perspektive. Die für Ezra Pound, 1934 sich genommen wichtigste Entwicklung, zumindest im Rückblick, zeigte sich im ersten Jahrzehnt des 20. Jahrhunderts, als Arnold Schönbergs Experimentieren mit der Atonalität einen epochalen Bruch mit den Vorstellungen von Konsonanz und Dissonanz markierte, die jahrhundertelang als Grundlage der Musik gegolten hatten. Der größte Erfolg bei der Schaffung dieses „Schock[s] des Neuen“ kam mit dem 29. Mai 1913, als Igor Strawinskys Ballett Le sacre du printemps („Die Frühlingsweihe“) in Paris uraufgeführt wurde. Die Reaktion auf die rohe Ursprünglichkeit der Musik, mit ihren treibenden Rhythmen und ihrer lärmenden Orchestrierung, war derart heftig, dass es zu Krawallen kam. Der Konflikt zwischen moderner Erneuerung und allgemeinem Publikumsgeschmack, der bis zum heutigen Tage anhält, war damit in Gang gebracht. „Ohne Lügen und Verspieltheiten“ In der Architektur des 20. Jahrhunderts stellte sich das Konzept der Moderne einheitlicher und geschlossener dar als in anderen Bereichen und wurde insbesondere mit der Architekturbewegung der sogenannten „Internationalen Moderne“ (auch „Internationaler Stil“) bekannt. Betont rationale und funktionale Entwürfe, in Verbindung mit einer dogmatischen Ablehnung aller Zierden, Überflüssigkeiten und historischen Bezüge, führten typischerweise zu sterilen, weißen, schachtelförmigen Gebäuden, mit Flachdächern und Fensterbändern. Die innovativsten und progressivsten Architekten jener Epoche, darunter Le Corbusier, Walter Gropius und Mies van der Rohe, predigten einen Ethos der „neuen Objektivität“, in dem subjektiv menschliche Elemente – und ein ästhetischer Stil als solcher – konsequent unterdrückt blieben. Gropius verlangte „den klaren organischen Bauleib, nackt und strahlend aus innerem Gesetz heraus ohne Lügen und Verspieltheiten (…), [der] alles Entbehrliche abstößt, das die absolute Gestalt des Baues verschleiert“. Das Ergebnis war ein funktionales, logisches, objektives Design, das Industrie- und Gewerbebauweisen, moderne Materialien sowie seriengefertigte Bauteile für sich nutzte. Die „Internationale Moderne“, die unter fortschrittlichen Architekten in den 1920ern und 1930ern bereits bestimmend war, wurde in der Phase des Wiederaufbaus nach dem Krieg zur orthodoxen Sichtweise. Konformistisch und homogenisiert in phantasielosen Händen, löste sich die moderne Architektur mehr und mehr von den eigentlichen menschlichen Bedürfnissen. Die Zahl der Bauwerke, die als Schlüsselwerke der Moderne gelten können, in der zweiten Hälfte des 20. Jahrhunderts aber eingerissen wurden, ist ein deutliches Spiegelbild des großen Versagens der Bewegung, den Versprechungen ihrer Propheten gerecht zu werden.

Worum „Der Schockes desgeht Neuen“



171

172

Kunst

43 Surrealismus In den Jahren 1868 und 1869 erschien in Paris ein finsteres, düster komisches Prosagedicht mit dem Titel Les Chants de Maldoror („Die Gesänge des Maldoror“) unter dem Namen eines mysteriösen Comte de Lautréamont. Held (oder vielmehr Anti-Held) dieser Kollage von sadistischer Folter und Misanthropie ist der geistig verwirrte Maldoror, der gegen Gott wütet und jegliche gesellschaftliche Konvention zutiefst verachtet. Gegen Ende des Buches vergleicht diese hinterhältige Kraft einer verdrehten Natur, gierend nach einer sechzehnjährigen flachsblonden Unschuld, seine Schönheit lüstern mit der „zufälligen Begegnung einer Nähmaschine mit einem Regenschirm auf einem Seziertisch“. „Lautréamont“ war das Pseudonym von Isidore Lucien Ducasse, einem obskuren französischen Dichter, der 1870 während der Belagerung von Paris (die das Ende des franko-preußischen Krieges beschleunigen sollte), im frühen Alter von gerade einmal 24 Jahren starb. Er blieb nahezu ein halbes Jahrhundert lang weitgehend vergessen, bis er von einer Gruppe von Künstlern und Autoren zufällig wiederentdeckt wurde. Im Schatten eines weit größeren Konfliktes in Europa war diese fasziniert von seiner rigorosen Ablehnung der westlichen Gesellschaft samt ihrer Kultur sowie von seinem aufschreckenden und verstörenden Gebrauch der Sprache. Vor allem bewunderten sie die brachiale Weise, mit der er gewöhnliche Vorstellungen von Rationalität und Realität verwarf, die dem gedankenlosen Volk durch die Macht der Gewohnheit und Konvention untergeschoben wurde.

Jenseits von Dada Als dem französischen Dichter und Kritiker André Breton 1918 ein Exemplar von Ducasses Buch in die Hände fiel, war er überaus beeindruckt von der Art und Weise, wie der Autor seltsame und scheinbar zusammenhanglose Bilder nebeneinander stellt. Breton, der bald schon zum Gründer und dem führenden Theoretiker des Surrealismus werden sollte, hatte zu jener Zeit Verbindungen mit dem bedeutendsten Vorreiter dieser Kunstrichtung, mit der künstlerischen und literarischen Bewegung des Paris-Dada. Auch die Dadaisten waren inspiriert von der Abscheu gegen den Rationalismus, der nach ihrem Empfinden Europa in die Schrecken eines Weltkrieges hineingezogen hatte; und auch sie waren faszi-

Zeitleiste 1868–1869

1915

1917

1920

Die Gesänge des Maldoror von Lautréamont

Der europäische Dada gründet sich in Zürich

Guillaume Apollinaire prägt den Begriff „Surrealist“

Die magnetischen Felder von Breton und Soupault

Surrealismus niert von allem Grotesken und Irrationalen, mit dem sie die Gesellschaft aus ihrer Selbstzufriedenheit rütteln und schockieren wollten. Doch während Dada letztlich subversiv und nihilistisch war – „im Kern anarchisch“ und gekennzeichnet durch einen „gewissen Geist der Negation“, wie Breton später sagen würde – war der Surrealismus in seinen Bestrebungen eher positiv und zielte darauf ab, die Gesellschaft durch Revolution zu verwandeln. (Viele Surrealisten, darunter Breton, traten in den 1920er und 1930er Jahren der Kommunistischen Partei bei, obgleich diese Verbindung stets gespannt blieb und auf Dauer nicht hielt.) Ab 1920 etwa begann sich unter Führung von Breton eine Gruppe abzuspalten, die von der grundlegenden Negativität des Dada enttäuscht und ernüchtert war. Zu diesem Zeitpunkt hatte Breton bereits begonnen, mit dem „Automatismus“ zu experimentieren, einer Methode des Schreibens (später auch angewandt in der Malerei), die den Versuch unternahm, die Bewegung der Hand von der bewussten Kontrolle zu lösen und das Unbewusste die Führung übernehmen zu lassen. Erstes Ergebnis dieser Technik war ein Werk, das er zusammen mit seinem Freund Philippe Soupault geschrieben hatte und das 1920 unter dem Titel Les Champs magnétiques („Die magnetischen Felder“) erschienen war. Der Automatismus blieb ein wesentliches Anliegen des Surrealismus, und er ist zentral für die Definition des Surrealismus, die Breton im 1924 erschienenen ersten Manifest des Surrealismus lieferte, das als der offizielle Beginn der Bewegung angesehen wird. (Zum damaligen ZeitDer Halluzinogene Torero 1929 gewann der Surrealismus seinen schillerndsten Vertreter, der mit der Zeit zu seinem öffentlichen Gesicht überall in der Welt werden sollte: den 25-jährigen Spanier Salvador Dalí. Dalís „handgemalte Traumphotographien“, wie er sie nannte, waren besonders verwirrend, da hier der Hyperrealismus der künstlerischen Darstellung sich heftig biss mit der fast halluzinatorischen Qualität der zusammengesetzten Bilder. Mit der eigens entwickelten „paranoisch-kritischen“ Methode versuchte er, die Fähigkeit des Paranoikers nachzubilden, die

Welt nach einer einzigen wahnhaften Idee zu deuten. Diese Methode brachte auch die berühmten Doppelbilder hervor, ein hervorstechendes Element in Dalís Arbeiten – die vieldeutigen Formen, die sich in verschiedenen Weisen gleichzeitig interpretieren lassen, wie etwa als Teil einer Landschaft oder als Teil eines menschlichen Körpers. Mit diesen Mitteln schickte sich Dalí an, seine durch und durch surrealistische Zielsetzung zu erfüllen: „System in die Verwirrung zu bringen und so dazu beizutragen, die Welt der Realität völlig zu diskreditieren.“

1924

1924–1925

1926

1927

1931

Das erste Manifest des Surrealismus

Karneval des Harlekins von Miró

Der bedrohte Mörder von Magritte

Wald und Taube von Ernst

Die Beständigkeit der Erinnerung von Dalí

173

174

Kunst punkt beansprucht auch Breton den Begriff „Surrealismus“ für sich, den ursprünglich sein Freund, der kurz zuvor verstorbene Dichter Guillaume Apollinaire, geprägt hatte.) Der Surrealismus, so Breton in seinem Manifest, ist … ein rein geistiger Automatismus, durch den man versucht – sei es verbal, sei es schriftlich, sei es in irgendeiner anderen Form –, die eigentliche Funktionsweise des Denkens auszudrücken. Geleitet vom Denken, ohne jegliche von der Vernunft geleitete Kontrolle, frei von jeder ästhetischen oder moralischen Voreingenommenheit. Der Surrealismus beruht auf dem Glauben an die höhere Wirklichkeit gewisser, bis heute vernachlässigter Assoziations-Formen, an die Allgewalt des Traums, an das absichtsfreie Spiel des Gedankens.

Der Einfluss der Freud’schen Psychologie, die der Macht des Unbewussten eine überragende Bedeutung beimisst, ist durch das ganze Manifest zu spüren. Endziel des Surrealismus ist nach Ansicht Bretons, „die künftige Auflösung der beiden äußerlich so widersprüchlichen Zustände – Traum und Wirklichkeit – in einer Art von absoluter Wirklichkeit, der Surrealität“. Gerade das ist der Zweck von Techniken wie dem Automatismus, nämlich die Grenzen zwischen Traum und Wirklichkeit, Vernunft und Wahnsinn, objektiver und subjektiver Erfahrung aufzuweichen. Dies ist die „Hauptentdeckung des Surrealismus“, schreibt André Breton später in seinem Werk Le Surréalisme et la Peinture (1928): „Die Feder, die ohne vorgefasste Absicht schreibend –, oder der Bleistift, der zeichnend hingleitet, spinnt einen kostbaren Stoff; er eignet sich vielleicht nicht ganz zum Tausch, ist aber reich an Emotionalem, was der Dichter empfindet.“

Pelztassen und andere Objekte Eine der charakteristischsten Formen surrealistischer Kunst war das Objekt. Sowohl hergestellt als auch im Alltag vorgefunden (objet trouvé), waren diese doch zumeist sehr kleinen Gegenstände so vielfältig, dass sie sich einer Klassifizierung entzogen – obgleich die Surrealisten dies eifrig versuchten und eine Liste seltsamer Kategorien erzeugten mit Begriffen wie die Ready-mades, die „Gedichtobjekte“ Bretons oder Dalís „symbolisch funktionierendes Objekt“. Insbesondere Dalí war erpicht, das Objekt als eine eigene Kunstform voranzubringen, und

schlug 1931 vor, seine wesentliche Eigenschaft solle sein, dass es „vollkommen nutzlos sei vom praktischen und rationalen Standpunkt aus, geschaffen einzig zum Zwecke, sich auf fetischistische Weise zu verkörperlichen, mit dem Maximum an greifbarer Realität, Ideen und Phantasien, die einen wahnhaften Charakter aufweisen“. Das wohl am meisten gefeierte Objekt dieser Art ist Meret Oppenheims Pelzbezogene Tasse, Untertasse und Löffel von 1936, das auch einfach als „Objekt“ bekannt ist.

Surrealismus Die automatische Hand des Malers Zunächst beschäftigte sich der Surrealismus vorwiegend mit literarischen Tätigkeiten und stand den bildenden Künsten etwas unbeholfen gegenüber (Breton befürwortete die Malerei zwar als eine surrealistische Tätigkeit, bezeichnete sie zugleich aber als ein „bedauerliches Hilfsmittel“). Mitte der 1920er Jahre jedoch versuchten etliche Künstler, hauptsächlich frühere Mitglieder des Dada, die Techniken des automatischen Schreibens anzuwenden, um Werke zu schaffen, die spontan dem Unbewussten entflossen. Und wie die surrealistischen Dichter (und die Dadaisten vor ihnen), faszinierte sie die Rolle des Zufalls im kreativen Prozess. 1925 führte Max Ernst, zuvor eine wichtige Figur des deutschen Dada, als erster verschiedene halbautomatische Techniken ein, in denen er sich den Zufall zunutze machte, und anfängliche Teilbilder erzeugte, die dann weiterentwickelt werden konnten, entweder vom Künstler selbst oder aber in der Vorstellungskraft des Betrachters. Für eine „Frottage“ beispielsweise wurde ein Blatt Papier auf gemaserte Oberflächen gelegt – wie etwa auf Bodendielen, „auf denen Tausende Male Scheuern die Furchen vertieft hatten“ – und Der einfachste surreadie Struktur mit einem Bleistift auf das Papier durchgerielistische Akt ist, auf die ben. Für eine „Grattage“ trug Ernst Farbschichten auf eine Strasse zu gehen und Leinwand auf und kratzte die oberen Schichten wieder ab, was unerwartete Muster in den Schichten darunter enthüllte. irgendjemand niederzuBreton beschrieb den spanischen Künstler Joan Miró als schiessen … „den wohl surrealistischsten von uns allen“, dieser trat der Gruppe jedoch nie offiziell bei und hielt stets an seiner ganz André Breton, 1930 eigenen Vision fest. Karneval des Harlekins (1924–1925) etwa wurde inspiriert durch „von Hunger verursachten Halluzinationen“ des Autors. Auf der Leinwand wimmelt es von fröhlichen Scharen phantastischer Kreaturen, die Bienen ähneln, Vögeln und Krabben, die Musik machen und ausgelassen um abstrakte und halb-abstrakte Formen und Zeichen tollen, die aus der unbewussten Imagination des Künstlers hervorgetreten sind.





Schnappschüsse des Unmöglichen Um 1930 hatten sich viele surrealistische Künstler bereits anderen Techniken zugewandt, nachdem sie die Grenzen des Automatismus als ein Mittel, das Unbewusste zu erforschen, erfahren hatten. Ein bedeutender Einfluss ging von dem Italiener Giorgio de Chirico aus, der im Jahrzehnt vor der Veröffentlichung des ersten Manifest des Surrealismus schlichte, entvölkerte Plätze („Piazzas“) gemalt hatte, in die er Züge, Schneiderpuppen und andere ungereimte Elemente auf schaurige Weise eingebracht hatte. Der belgische Künstler René Magritte begann, seine einzigartigen „Schnappschüsse des Unmöglichen“ zu malen: akribisch detaillierte und scheinbar naturalistische Szenen, in denen das Banale und das Bizarre in aufschreckender und verstörender Weise nebeneinander gestellt sind.

Worum Die Allmachtes dergeht Träume

175

176

Kunst

44 Zensur In seinem letzten großen Roman, Lady Chatterleys Liebhaber, bedient sich der englische Romanautor D. H. Lawrence ungeniert der bodenständigen angelsächsischen Terminologie zur expliziten und zugleich poetischen Schilderung einer ehebrecherischen Affäre zwischen einer aristokratischen Lady und dem Wildhüter ihres Ehemannes. Aus diesem Grund wurde der gesamte Roman für mehr als drei Jahrzehnte nach seinem Erscheinen im Jahr 1928 im Geburtsland des Autors als nicht publizierbar erachtet. Dann, im Jahr 1960, riskierte der Verlag Penguin Books eine Anklage, als er den vollständigen Text des Romans in Großbritannien herausbrachte. Der darauf folgende Strafprozess geriet rasch zum Medienspektakel, der seinen skurrilen Höhepunkt fand, als sich der Chefankläger, Mervyn Griffith-Jones, an die Geschworenen richtete: „Wollen Sie wirklich, dass Ihre jungen Söhne, jungen Töchter – denn Mädchen können ebenso lesen wie Jungen – dieses Buch lesen? Ist dies ein Buch, das Sie im Haus herumliegen lassen würden? Wollen Sie wirklich, dass Ihre Frau oder Ihre Angestellten dieses Buch lesen?“ Knietief im sexuellen Schmutz Die Anklage, die sich auf den im Jahr zuvor verabschiedeten Obscene Publications Act (Gesetz zu obszönen Publikationen, 1959) berief, spiegelte die Sichtweise des britischen Establishment wider, wonach derart freimütiges Material „das allgemeine Anstandsgefühl empören“ und die Gemüter gewöhnlicher Leute „verderben und korrumpieren“ würde. Welche Art der Korruption hier gemeint war, erläuterte 1917 ein Staatsanwalt in Neuseeland, der da mutmaßte, die öffentliche Verbreitung von Maupassants A Spa Love Affair würde es den „Literatenferkeln [erlauben], sich knietief im sexuellen Schmutz zu suhlen“, und damit die Straße aufzutun, die geradewegs hineinführe in „die Irrenanstalt, ins Zuchthaus und ins frühe Grab“. Das Urteil, das die Jury im Chatterley-Prozess zugunsten des Penguin Verlags sprach, ... dort wo man Bücher war Zeichen dafür, dass die britische Öffentlichkeit nicht verbrennt, verbrennt man länger gewillt war, einen solch überheblichen Paternalismus am Ende auch Menschen. hinzunehmen; man wollte sich nicht länger (wenn man es Heinrich Heine, 1821 denn jemals gewollt hatte) das eigene moralische Wohlerge-





Zeitleiste 4. Jh. v. Chr.

1232

Platons Der Staat verlangt die strenge Zensur der Künste

Einführung der Inquisition, um ketzerisches Denken in der katholischen Kirche aufzuspüren

Zensur



Wären alle Buchdrucker entschlossen, nichts mehr zu drucken, bis sie sicher sein könnten, niemanden anzugreifen, dann würde kaum etwas gedruckt. Benjamin Franklin, 1731



hen vorschreiben lassen. Die Menschen, so schien es, wollten sich über derlei Dinge ihre eigene Meinung bilden und taten kund, dass Zensur – die öffentliche Beschneidung freier Meinungsäußerung im (vermeintlich) öffentlichen Interesse – nicht länger, oder zumindest nicht mehr immer, hinnehmbar sei. Penguins Hauptargument im Chatterley-Prozess war, dass Lawrences Roman „literarische Qualität“ besäße, eine Tatsache, die zu bezeugen E. M. Forster sowie eine ganze Reihe weiterer literarischer Lichtgestalten eigens vor Gericht erschienen waren. Die Idee, dass die literarische oder künstlerische Qualität eines Buches in einem solchen Falle in die Erwägungen miteinbezogen werden konnte, war ein Novum im Rahmen jenes 1959 erlassenen „Gesetzes zu obszönen Publikationen“. Das ihr zugrundeliegende Prinzip jedoch – nämlich die Idee, dass Ethik und die Ästhetik der Kunst zwei völlig unterschiedliche Dinge seien – war sehr viel älter und hat wohl auch Oscar Wilde angeregt, als er im Vorwort zu seinem Werk Das Bildnis des Dorian Gray (1891) schrieb: „So etwas wie ein moralisches oder ein unmoralisches Buch gibt es nicht. Bücher sind entweder gut oder schlecht geschrieben. Das ist alles.“ Staatliche Kontrolle Wer mit den Traditionen des westlichen Liberalismus groß geworden ist, ist geneigt zu meinen, freie Meinungsäußerung sei ein absolutes Recht und Zensur daher von Grund auf abzulehnen. Eine solche Sicht ist naiv, da sie verkennt, in welchem Maße eine solche Freiheit nach wie vor begrenzt ist und schon immer war. Bevor das Prinzip der Freiheit und der Rechte des Einzelnen mit der Aufklärung im 17. Jahrhundert zum Tragen kam, war die allgemeine Ansicht die, dass die Gesellschaft ein Recht und eine Verpflichtung habe, das moralische und politische Gebaren ihrer Bürger zu kontrollieren, indem sie den Informationsfluss regulierte und Äußerungen von Meinungen unterdrückte, die sie für verderblich erachtete. In seinem Werk Der Staat empfiehlt Platon ohne Weiteres eine strikte Zensur für jedweden künstlerischen Ausdruck, und selbst im demokratischen Athen des 4. Jahrhunderts v. Chr. wurde der Philosoph Sokrates wegen verderblichen Einflusses auf die Jugend und wegen Missachtung der griechischen Götter unter Anklage gestellt und hingerichtet. Im Laufe der Geschichte wurde – und wird in vielen

1644

1791

1960

In Areopagitica argumentiert Milton gegen die Praxis der Vorzensur

Erster Zusatzartikel zur Verfassung der Vereinigten Staaten garantiert Meinungsund Pressefreiheit

Penguin Books wird vom Vorwurf der Verbreitung obszöner Bücher (resp. der Veröffentlichung von Lady Chatterleys Lover) freigesprochen

177

178

Kunst Teilen der Welt bis zum heutigen Tage – die religiöse Rechtgläubigkeit herangezogen, um die radikalsten Formen von Zensur zu rechtfertigen. In der katholischen Kirche beispielsweise wurde im 13. Jahrhundert die Inquisition eingeführt, um all jene zu beseitigen (oft endgültig), die ketzerische Ansichten vertraten oder äußerten. Der katholische Index Librorum Prohibitorum („Liste verbotener Bücher“) wurde im Jahre 1559 von Papst Paul IV. eingeführt und erst 1966 endgültig abgeschafft. Bekanntestes Opfer dieser Liste ist Galileo, „ein Gefangener der Inquisition“, um es mit John Milton zu sagen, „weil er in der Astronomie anders dachte als die franziskanischen oder dominikanischen Zensoren“. In seinen Areopagitica von 1644 eröffnet Milton einen der passioniertesten und wortgewandtesten Angriffe der Geschichte auf die Zensur. Überaus scharf greift er die staatliche Praxis der Vorzensur an – die staatliche Zensur vor der Publikation eines Buches – und fordert vor allen anderen Freiheiten die Freiheit, „zu wissen, zu äußern und frei zu argumentieren – nach Maßgabe des eigenen Gewissens“. In Lives of the Most Eminent English Poets (1779–1781) argumentiert Samuel Johnson, ein Konservativer durch und durch, genau umgekehrt. Aus Furcht vor den Auswirkungen jener Art von Freiheit, wie sie Milton fordert, will er nicht einsehen, warum es „vernünftiger sein soll, das Recht zur Vervielfältigung und Verbreitung un-

Kunst ist niemals keusch Von künstlerischer Seite gibt es vor allem einen Einwand gegen die Zensur. Und der lautet schlicht und einfach, dass sie die Kunst stumpf und fade mache. Picasso beharrte darauf, dass wahre Kunst nicht in der sicheren und sterilen Atmosphäre gedeihen könne, die ein prüder Zensor schaffe: „Kunst ist niemals keusch, man müsste sie von allen unschuldigen Ignoranten fernhalten. Leute, die nicht genügend auf sie vorbereitet sind, dürfte man niemals an sie heranlassen. Ja, Kunst ist gefährlich. Wenn sie keusch ist, ist sie keine Kunst.“ Im Bereich der literarischen Kunst stößt George Bernard Shaw ins gleiche Horn, als er trocken bemerkt: Die Perfektion der Zensur ist erreicht, wenn nur solche Bücher zur Lektüre freigegeben werden, die ohnehin niemand

liest“. Und Ray Bradbury beklagt in einem später hinzugefügten Schlusssatz im Nachwort zu seinem Roman über Zensur und Bücherverbrennung Fahrenheit 451 (1953) die tote Hand, die all die halboffiziellen oder selbsternannten Zensoren dieser Welt der Kunst auflegen. In Areopagitica von 1644 – dem wohl berühmtesten aller literarischen Angriffe auf die Zensur – argumentiert Milton, das Gute guter Bücher werde einem Leser erst dann vollends deutlich, wenn er sie im Vergleich zu schlechten Büchern beurteilen könne. Wahrheit, so Milton, werde sich „in einer freien und offenen Begegnung“ immer gegen Falschheit durchsetzen. Wenn das Böse verbannt ist, ist es unmöglich, „eine flüchtige und abgeschiedene Tugend zu preisen“.

Zensur eingeschränkt zu lassen, weil man ja die Schreiber im Nachhinein zensieren kann – als wenn man alle Türen unverriegelt lassen würde, weil man ja den Dieb nach unseren Gesetzen im Nachhinein hängen kann“.



Unsere Freiheit hängt von der Pressefreiheit ab, und die kann nicht begrenzt sein, ohne verloren zu sein. Thomas Jefferson, 1786

Freiheit oder Sicherheit? Die liberale Verpflichtung zu freier Meinungsäußerung ist insbesondere im ersten Zusatzartikel (First Amendment, 1791) zur Verfassung der Vereinigten Staaten garantiert, wo festgeschrieben ist: „Der Kongress darf kein Gesetz erlassen, das die Einrichtung einer Religion betrifft, die freie Religionsausübung verbietet, die Rede- oder Pressefreiheit … einschränkt.“ In der Praxis jedoch gibt es eine Vielzahl von Gesetzen (wobei durchaus die Grundannahme gelten mag, nichts dürfe im Voraus eingeschränkt werden), die durchaus Strafen vorsehen, wenn diese Freiheit missbraucht wird, indem Ansichten, die die Gesellschaft als unannehmbar erachtet, veröffentlicht oder anderweitig zum Ausdruck gebracht werden. Gesetze gegen Verleumdung, Obszönität, Blasphemie und dergleichen stellen allesamt eine Zensur dar, insofern, da sie jene bestrafen, die die Grenzen überschreiten, die von einem bestimmten Rechtssystem festgelegt sind. Von daher billigt jede Gesellschaft ein gewisses Maß an Zensur. Unter bestimmten Umständen mag eine solche Zensur recht unumstritten sein – in Zeiten von Kriegen beispielsweise, oder um die nationale Sicherheit zu schützen. Doch selbst dann würden viele mit Benjamin Franklin rufen: „Diejenigen, die bereit sind grundlegende Freiheiten aufzugeben, um ein wenig kurzfristige Sicherheit zu erlangen, verdienen weder Freiheit noch Sicherheit.“



Doch wehe der Nation, deren Literatur durch den Eingriff der Gewalt unterbrochen wird: das ist nicht einfach eine Verletzung der Pressefreiheit, das ist die Abschnürung des Herzens der Nation, die Austilgung des Gedächtnisses der Nation. Alexander Solschenizyn, 1970



Worum es geht Das Gesinde schützen



179

180

Wissenschaft

45 Evolution Am 16. September 1835 erreichte das britische Vermessungsschiff HMS Beagle Galapagos, ein Archipel vulkanischer Inseln im Pazifik, deren wahllos verstreute Schlackenkegel sich beiderseits des Äquators erstrecken. An Bord befand sich ein 26-jähriger englischer Naturforscher namens Charles Darwin. Die aufreibende, fünf Jahre dauernde Expedition hatte dem jungen Darwin jedwede Gelegenheit geboten, sich ganz seiner Leidenschaft für das Forschen, Beobachten und Sammeln von Proben zu widmen. Er hatte bereits viel gesehen, das ihn tief beeindruckt hatte, und doch erfüllte ihn erneut tiefe Ehrfurcht angesichts dieser einzigartigen Geologie, Flora und Fauna von Galapagos, dieser Wunder der Natur, zu denen Grundfinken und Spottdrosseln gehörten, Leguane, die sich von Seegras ernährten, oder gigantische Schildkröten. Die Inspiration, die Darwin aus jenen außerordentlichen Erlebnissen schöpfte, auf den Galapagos-Inseln und anderswo, half ihm, eine Theorie zu formulieren, die eine überzeugende Lösung bot für das, was den meisten Biologen das „Rätsel aller Rätsel“ geblieben war: den Ursprung der unzähligen Arten von Leben auf der Erde und eine Erklärung für deren erstaunliche Vielfalt. Darwins Theorie der Evolution durch natürliche Auslese hat sich seither als Eckpfeiler und einigendes Prinzip der biologischen Wissenschaften etabliert. Und ihre Bedeutung reicht weit über die Grenzen der Wissenschaft hinaus. Keine andere wissenschaftliche Theorie hat die Menschen zu einer solch radikalen Neubewertung der eigenen Stellung in der Welt und ihres Verhältnisses zu anderen lebenden Organismen gezwungen. Entstehung der Arten Als die Beagle am 2. Oktober 1836 im Hafen von Falmouth einlief, war sie beladen mit Unmengen von Proben und Notizpapieren, die der junge Naturforscher Darwin auf dieser Reise gesammelt hatte und die ihm zahlreiche Rätsel aufgegeben hatten. Wieder und wieder war er konfrontiert gewesen mit der wundersamen Schönheit und grausamen Brutalität der Natur – nicht zuletzt der menschlichen Natur. Alles was er gesehen und erlebt hatte, trug dazu bei, seinen Sinn zu verstärken für die Veränderlichkeit der Welt um uns herum und die riesigen Zeiträume, in welchen die scheinbar unwandelbaren Besonderheiten der Erde erstanden

Zeitleiste 1809

Dez. 1831– Okt. 1836

Darwin wird im englischen Shrewsbury geboren

Reise der Beagle

Evolution und wieder vergangen waren. Und doch, trotz der eindrucksvollen Dimension seines Unterfangens, hatte Darwin binnen nur eines Jahres nach seiner Rückkehr begonnen, die Ideen zu formulieren, die letztlich seine Theorie der Evolution bestimmen sollten. Allerdings dauerte es mehr als zwei Jahrzehnte, bis Darwin (im Jahr 1859) die klassische Aussage der Theorie in seinem epochemachenden Werk veröffentlichte mit dem Titel Über die Entstehung der Arten im Thier- und Pflanzen-Reich durch natürliche Züchtung, oder Erhaltung der vervollkommneten Rassen im Kampfe um’s Daseyn. Der lange Aufschub Ich bin (…) entgegen meiner wurde meist dem Umstand zugeschrieben, dass Darwin ursprünglichen Auffassung unsicher und besorgt darüber war, wie die Öffentlichkeit nun beinahe überzeugt, dass seine Ideen aufnehmen würde. Gewiss, die orthodoxe wissenschaftliche Sichtweise seinerzeit besagte, dass jede die Arten (es ist wie einen Art unveränderlich und das Ergebnis eines eigenen göttli- Mord zu gestehen) nicht unchen Schöpfungsaktes sei. Doch die Idee der Evolution an veränderlich seien. Ich denke, sich – oder die „Abstammung mit Modifikationen“, wie ich habe den Weg herausDarwin seine Theorie nannte – war nicht neu. Viele, unter gefunden (und hier ist Mutihnen auch Darwins eigener Großvater, Erasmus Darwin, maßung im Spiel!), auf dem hatten bereits über die Vorstellung spekuliert, dass die Arten vorzüglich an alle verschiedenen Arten von Pflanzen und Tieren aus frühemöglichen Zwecke angepasst ren Formen hervorgegangen sein und gemeinsame Vorfahren haben könnten. Derartiges Denken wurde aufgrund werden. theologischer Grundannahmen weithin verdammt, schien Charles Darwin es doch Gott von seiner zentralen Rolle als Schöpfer der Welt zu verdrängen. Und ohne jedwede Erklärung, wie ei- an Joseph Dalton Hooker, 1844 ne solche Modifikation geschehen könnte, blieb die Idee reine Spekulation. Tatsächlich betrachtete man die Ideen der Naturtheologie als die entscheidenden Konzepte zugunsten der orthodoxen Sichtweise – insbesondere das sogenannte „Design-Argument“, das die Existenz eines Schöpfers aus der wundervollen Komplexität und Ordnung der Natur folgerte.





Natürliche Selektion Darwins Genialität bestand nun gerade darin, das DesignArgument zu widerlegen, indem er einen alternativen Mechanismus bot, der die „Perfektion der Struktur und der Koadaptation“ der lebenden Organismen zu erklären vermochte. Es bedurfte außerordentlicher Anstrengungen, Beweise zur Stützung seiner Theorie zusammenzutragen und zu erwartende Einwände und Kritik vorherzusehen. Und darin liegen die vielen Jahre begründet, die er damit zubrachte, „geduldig alle Arten von Fakten zusammenzutragen und zu überdenken“. Vor allem lag ihm nach eigenem Bekunden daran, „domestizierte Tiere und Kulturpflanzen sorg-

Sept. 1835

1859

1882

Die Beagle erreicht die Galapagos-Inseln

Erstveröffentlichung der Entstehung der Arten

Darwin stirbt in Downe, Kent

181

182

Wissenschaft



Die Evolution schreitet voran, nicht aufgrund eines Designs a priori, sondern durch die Selektion dessen, was unter den sich bietenden Auswahlmöglichkeiten am besten funktioniert. Wir sind eher das Produkt einer redaktionellen Bearbeitung als einer Autorenschaft. George Wald, 1957



fältig zu studieren“, bei welchen er einen Prozess ausmachte (den er als „künstliche Selektion“ bezeichnet), der eine starke Ähnlichkeit zu dem von ihm vorgeschlagenen natürlichen Mechanismus aufwies. Letztlich jedoch lag der Reiz seiner Theorie in ihrer Einfachheit und ihrer Leistung, sonst gänzlich rätselhafte Fakten miteinander in Einklang zu bringen, wie etwa die Existenz von Fossilien oder die geografische Verbreitung von Pflanzen und Tieren. In seinem Werk Über die Entstehung der Arten bringt Darwin die natürliche Selektion wie folgt auf den Punkt: Da viel mehr Individuen jeder Art geboren werden, als möglicherweise fortleben können, und demzufolge das Ringen um Existenz beständig wiederkehren muss, so folgt daraus, dass

„Survival of the fittest“ Der „Kampf ums Dasein“, der den Kern der Evolutionstheorie ausmacht und besagt, dass die Starken stets über die Schwachen siegen, erwies sich als höchst anregend für viele, die ihre Inhalte auch auf Bereiche anzuwenden suchten, die weit außerhalb der Ursprungsidee lagen. Das schädlichste Beispiel dafür ist die Entwicklung des Sozialdarwinismus durch Theoretiker wie den britischen Philosophen Herbert Spencer. In den Jahren, die auf Darwins Tod im September 1882 folgten, propagierte Spencer, ein glühender Verfechter des Evolutionismus, die Idee, die Prinzipien der natürlichen Selektion anzuwenden (oder eher falsch anzuwenden) auf einen vermeintlichen Prozess der Evolution innerhalb von Gruppen, Rassen und

menschlichen Gesellschaften. „Survival of the fittest“ (ein durch Spencer geprägter Ausdruck) wurde zu einem strengen Dogma, das hergenommen wurde, um im Namen der Verbesserung der Menschheit „natürliche“ Ungleichheiten bezüglich sozialer Klassen, Reichtum und Wohlergehen zu rechtfertigen; jegliche Unternehmung seitens des Staates, um jene zu unterstützen, die von Armut betroffen oder in anderer Weise „nicht stark“ waren, wurde als einen störenden Eingriff in die notwendige biologische „Ausrottung“ der schwachen und unwerten Elemente gegeißelt. In der äußerst pervertierten Form diente der Sozialdarwinismus auch dazu, die imperialistischen und rassistischen Ideologien faschistischer Regime zu stützen.

Evolution ein Wesen, welches in irgend einer für dasselbe vortheilhaften Weise von den übrigen, so wenig es auch sei, abweicht, unter den zusammengesetzten und zuweilen abändernden Lebensbedingungen mehr Aussicht auf Fortdauer hat und demnach von der Natur zur Nachzucht gewählt werden wird. Eine solche zur Nachzucht ausgewählte Varietät ist dann nach dem strengen Erblichkeitsgesetze jedesmal bestrebt, seine neue und abgeänderte Form fortzupflanzen.

Diese epochale Entwicklung im biologischen Denken beruhte also auf der Verknüpfung einiger einfacher Ideen: Vielfalt, Vererbung, Wettkampf ums Dasein, Selektion. In der Natur sind Ressourcen wie Nahrung und Partner begrenzt, insofern wird es also immer einen Wettkampf darum geben. Da sich Individuen alle voneinander unterscheiden, werden einige zwangsläufig besser ausgestattet sein als andere und sich damit im Kampf um das Dasein durchsetzen. Es sind eben diese Individuen, die (im Schnitt) länger leben und mehr Nachkommen produzieren. Und sofern die Eigenschaften, die dem Individuum das Überleben und den Erfolg beschert haben, an die Nachkommenschaft weitergegeben Variation, was immer werden können, werden diese Eigenschaften auch überdauern ihre Ursache sein mag, und in der Population vermehrt auftreten. Und so kommt es, und wie immer sie bedass Tiere und Pflanzen durch kleinste und stufenweise Veränderungen über unzählige Generationen hinweg immer besser an schränkt sein mag, ist ihre Umgebung angepasst werden; einige Spezies oder Arten das zentrale Phänomen verschwinden, um von anderen ersetzt zu werden, die sich im der Evolution. Variation Kampf ums Dasein als erfolgreicher erwiesen und behauptet ha- ist in der Tat Evolution. ben.



William Bateson, 1894

Der fünfte Menschenaffe In der ersten Ausgabe der Entstehung der Arten gibt Darwin lediglich Hinweise, inwiefern sich seine Theorie in ihrer Anwendung auf den Menschen auswirken könnte. Er war sich äußerst bewusst, welcher Aufschrei auf seine Theorie folgen würde, die nahelegte, dass der Unterschied zwischen Mensch und (anderen) Tieren nur ein gradueller und kein kategorischer sei, und dass der Mensch somit nicht das spezielle und bevorzugte Objekt göttlicher Schöpfung sei. Der öffentliche Aufruhr folgte dennoch, und wütet seitdem bis zum heutigen Tage. Die Evolutionstheorie, oder der „Darwinismus“, ist bis heute das Angriffsziel der Kreationisten und Vertreter der „Intelligent-DesignTheorie“ und in manchen Kreisen so umstritten wie eh und je. Für die große Mehrheit der Wissenschaftler jedoch ist sie unstreitig und ihre Bedeutung außer Zweifel. So wie für den Evolutionsbiologen Theodosius Dobzhanky, der rigoros formuliert: „Nichts in der Biologie ergibt einen Sinn, es sei denn im Lichte der Evolutionstheorie.“

Worum geht Das Überleben deres bestangepassten Individuen



183

184

Wissenschaft

46 Gaia „Dieses Buch ... ist der Bericht einer Suche nach dem Leben und die Suche nach Gaia ist der Versuch, das größte Lebewesen in unserem Sonnensystem zu finden. Unsere Reise mag nichts weiter enthüllen als die schier unendliche Varietät lebender Formen, die sich unter dem transparenten Luftmantel über die Erde ausgebreitet haben und die Biosphäre bilden. Wenn Gaia existiert, kann sich der Mensch nicht länger als Herr und Meister der Natur begreifen, er ist Teil einer großen Wesenheit, welche in ihrer Ganzheit über die Macht verfügt, unseren Planeten gesund und als Lebensraum wohl zu erhalten.“ Mit diesen gewichtigen Worten leitet der unabhängige britische Wissenschaftler James Lovelock 1979 sein Pionier-Werk ein – Gaia: Eine neue Sicht auf das Leben auf der Erde. Die Suche, die er mehr als ein Jahrzehnt zuvor begonnen hatte, war begleitet von erheblichen Hindernissen, die ihm zumeist Fachkollegen in den Weg stellten. Die unter Wissenschaftlern vorherrschende Sichtweise seinerzeit besagte, dass das Leben auf der Erde im Wesentlichen ein sehr unwahrscheinlicher Unfall sei, „ein stiller Passagier“, der „auf seiner Reise durch Raum und Zeit auf diesen Gesteinsball aufgesprungen war“. Und eben diese Unwahrscheinlichkeit war es (diese winzige Chance, dass die genau passenden Bedingungen für das Entstehen von Leben existiert haben und weiterhin existieren würden), die Lovelock inspirierte, seine Gaia-Theorie zu begründen: die Idee, dass es das Leben selbst sei, das die Bedingungen für das eigene Überleben aufrechterhält. In den Jahrzehnten nach der Erstveröffentlichung des Werks 1979 wurde die GaiaTheorie deutlich verfeinert, nicht zuletzt durch Lovelock selbst in einer Reihe von Folgewerken. Kern der These ist die Idee der Selbstregulation oder Homöostase, einer Eigenschaft, die seiner Überzeugung nach dem gesamten System eigen ist, das „alle lebenden Organismen umfasst, die eng verbunden sind mit der Luft, den Meeren und dem Oberflächengestein“. Durch verschiedene natürliche Rückkopplungsmechanismen wirken diese Elemente zusammen, um das Klima, die Ausgeglichenheit der Gaszusammensetzung der Atmosphäre sowie die chemische Zusammensetzung der Meere zu regulieren, und zwar so, dass eine physikalische Umwelt hergestellt und stabil aufrechterhalten wird, die an das Leben optimal angepasst ist. Auf Anregung seines Freundes William Golding, Romanschriftsteller und Nobelpreisträger, benannte

Zeitleiste 1979 James Lovelock, Gaia: Eine neue Sicht auf das Leben auf der Erde

Gaia Lovelock seine komplexe Entität nach der Erdgöttin und Großen Mutter der griechischen Mythologie – Gaia. Ein stabiler Planet aus instabilen Einzelteilen Die Saat dessen, was letztlich zu Gaia werden sollte, wurde 1965 eingepflanzt. Damals arbeitete Lovelock für das Weltraumprogramm der NASA als Mitglied eines Teams, das herausfinden sollte, ob es auf dem Mars Leben gäbe. Ein allgemeines Merkmal lebendiger Organismen, so erkannte er, ist es, die Entropie umzukehren oder zu verkleinern – anders gesagt, ihre Umgebung aus einem chemischen Gleichgewichtszustand fortzubewegen. Die Analyse der Atmosphären von Mars und Venus ergab, dass sich beide Planeten nahe an einem Gleichgewichtszustand befanden und die Planeten selbst somit wohl ohne Leben waren. Nachdem klar war, wie sehr unser Planet sich von seinen zwei toten (unbelebten) Nachbarn unterscheidet, waren Lovelocks Gedanken „voller Staunen über das Lebewesen Erde“. Die Erde befindet sich im Zustand eines extremen chemischen Ungleichgewichts. Im Unterschied zu den Atmosphären von Mars oder Venus, die so gut wie ausschließlich aus Kohlenstoffdioxid bestehen, enthält die Erdatmosphäre etwas über ein Fünftel Sauerstoff und nur Spuren von Kohlenstoffdioxid (etwa 350 parts per million), also 350 Teilchen auf eine Million Teilchen). Der Sauerstoffgehalt ist für die Atmung der Tiere optimal, während der kleine Anteil an Kohlenstoffdioxid unerlässlich ist für den lebenserhaltenden Prozess der Photosynthese, aber nicht so hoch (menschliche Aktivitäten einmal außen vor gelassen), dass ein potenziell katastrophaler Treibhauseffekt Gaia – eine lebendige Wesenheit? Es ist nicht immer klar oder schlüssig, welche Definition Lovelock für die Gesamtheit der belebten und unbelebten Elemente, die er Gaia nennt, in seinen Werken in Anspruch nimmt. In der Einleitung zu seinem ersten Buch von 1979 beschreibt er Gaia als ein „lebendiges Wesen“, an anderer Stelle wiederum bezieht er sich auf einen Organismus oder „Superorganismus“. Die Idee, das System als Ganzes sei in gewissem Sinne lebendig, verprellte anfangs viele seiner Wissenschaftskollegen, wie auch

Lovelock selbst sehr wohl erkannt hat. Es störte ihn bisweilen ungemein, dass das, was er als Metapher gebrauchte von seinen Wissenschaftskollegen missverstanden wurde, teils sogar gewollt. Andererseits mag seine Ambivalenz diesbezüglich auch Strategie gewesen sein, denn die Vorstellung von einer lebendigen Gaia traf bei vielen Nichtwissenschaftlern einen Nerv und wurde so zu einem machtvollen, einenden Symbol grüner Umweltbewegungen.

1989

2009

Konferenz der Amerikanischen Geophysikalischen Union über die Gaia-Hypothese in San Diego, Kalifornien

In Vanishing Face of Gaia sagt Lovelock, der Mensch sei ein globaler Krankheitserreger

185

186

Wissenschaft



Unser Schicksal hängt nicht bloß davon ab, was wir für uns selbst tun, sondern auch davon, was wir für Gaia als Ganzes tun. Wenn wir sie gefährden, so wird sie sich von uns lösen im Interesse eines höheren Wertes – des Lebens selbst. Václav Havel, 1994



ausgelöst würde. Und zudem ist die Oberflächentemperatur des Planeten konstant geblieben, bei einem globalen Mittel von etwa 15˚C, ungeachtet der Tatsache, dass die von der Sonne abgestrahlte Energie seit der Bildung der Erde um ein Viertel gestiegen ist. Diese Temperatur ist für das irdische Leben ideal. Die bemerkenswerte Konstanz dieses Parameters und vieler anderer, die wider Erwarten über Hunderte von Millionen Jahren erhalten blieben, waren es, die Lovelock zu der Äußerung führten, dass unser „stabiler Planet, bestehend aus instabilen Teilen“ durch das regulative Zusammenspiel der belebten und der unbelebten Teile, in einen solchen Zustand gebracht worden und in diesem gehalten worden sein könnte. Jenseits von Daisyworld Ein Großteil der frühen Kritik an Lovelock konzentrierte sich auf die von ihm angeblich gemachten teleologischen Annahmen, denn scheinbar verfügte Gaia selbst über die Fähigkeit zu Voraussicht und Zukunftsplanung. Was zu fehlen schien, waren plausible evolutionäre Pfade, die eine Erklärung liefern könnten, wie die notwendigen regulativen Rückkopplungsmechanismen überhaupt erst entstehen konnten. Diese Kritik bestimmte einen Großteil der Agenda, nach der die Gaia-Theorie in den folgenden Jahrzehnten verfeinert werden sollte. Erstes Resultat dieser Anstrengungen war Daisyworld („Gänseblümchenwelt“), ein simuliertes Ökosystem, das zunächst aus lediglich zwei Arten von Gänseblümchen bestand: schwarzen und weißen. Jede Art verändert ihre Umwelt in einer ihr eigenen charakteristischen Weise – die weißen Gänseblümchen vermindern die Umgebungstemperatur, die schwarzen erhöhen sie; und so bestimmt jede Art die relative Dichte ihres eigenen Vorkommens. Obwohl in diesem System die Einspeisung von Sonnenenergie langsam ansteigt (so wie auf der Erde), zeigt das Modell, dass die Oberflächentemperatur nahe am Optimum gehalten werden kann, nur durch das Zusammenspiel dieser zwei Arten von Gänseblümchen. Die Schlussfolgerung lautet somit, dass eine Veränderung der Umwelt erlangt werden kann, allein durch miteinander konkurrierende Arten und die natürliche Auslese auf der Ebene von Individuen. Die Rückkopplungsmechanismen der realen Welt, von denen man annimmt, sie funktionierten analog zu jenen in Daisyworld, hat man seither intensiv untersucht. Ein nennenswertes Beispiel für einen solchen Mechanismus liefert das marine Phytoplankton, das einen kühlenden Einfluss auf das Klima haben soll. Diese winzigen Organismen bilden ein Gas, das sogenannte Dimethylsulfid (DMS), das AerosolTröpfchen in der Atmosphäre bildet. Und diese Aerosole wiederum bewirken, dass Wolken stärker reflektieren und somit die Menge der Sonnenstrahlung erhöhen, die

Gaia

Baldige Apokalypse Der Ton, den Lovelock heute im 21. Jahrhundert anschlägt, ist deutlich apokalyptischer als der der früheren Ausgaben seiner selbst. Die Presse porträtiert Lovelock gerne als einen modernen Jeremias oder Untergangspropheten. Die Gaia-Theorie ist an sich eine holistische, die argumentiert, dass das System als Ganzes von wesentlich größerer Bedeutung sei als ihre einzelnen Teile, aus denen es besteht. Und so überrascht es nicht, wenn Lovelock den Menschen beschreibt als „bloß eine weitere Spezies, weder Besitzer noch Verwalter des Planeten“. In seinem neuesten Werk postuliert er, der

Homo sapiens sei zu einem Krankheitserreger geworden, der die Erde infiziert habe: „Wir haben Gaia ein Fieber beschert, und bald schon wird ihr Zustand sich verschlechtern und sie in ein Koma fallen. Im Koma lag sie schon einmal und erholte sich davon, aber das hat mehr als 100 000 Jahre gedauert. Wir Menschen tragen die Verantwortung und wir werden auch die Folgen zu tragen haben.“ Will heißen, die Erde wird höchstwahrscheinlich überleben, egal, wie übel wir sie zurichten. Auch ohne uns menschliche Passagiere.

in den Weltraum zurückreflektiert wird. Das Wachstum von Phytoplankton (und somit die Bildung von DMS) steigt mit zunehmender Temperatur, weshalb das System als Ganzes wie ein Thermostat funktioniert, um die Temperatur konstant zu halten. Gaias Vermächtnis Bisweilen wurde die Botschaft Gaias verschleiert durch rhetorische Ausgestaltungen seitens ihrer Befürworter ebenso wie ihrer Gegner. So ist einiges der Vorbehalte gegenüber ihrer Symbolhaftigkeit und nicht zuletzt ihrem Namen selbst, zwar geblieben, aber die vielen ernsten Implikationen der Theorie haben dennoch ihre Spuren hinterlassen. Der Ansatz, den Geowissenschaftler, Klimaforscher und andere Wissenschaftler einst in ihrer jeweiligen Disziplin verfolgten, war tendenziell der, die Komplexität der Umwelt zu analysieren und auf einfachere und übersichtlichere Teile zu reduzieren. Heute ist diese Komplexität weitgehend als grundlegend für das System anerkannt. Der Fokus der Forschung hat sich fast durchweg verlagert und betrachtet die Erde heute in einem neuen, ganzheitlichen Rahmen als ein einheitliches System mit wichtigen Rückkopplungsmechanismen innerhalb der Ökosysteme samt ihrer Rolle, die globale Stabilität langfristig aufrecht zu erhalten. In unserer heutigen Zeit, da wir mit nie dagewesenen Bedrohungen durch Klimawandel und globale Erwärmung zu kämpfen haben, scheint die eindringliche Lektion, die Gaia uns lehrt, dass die Gesundheit unserer Welt eine globale Perspektive fordert, relevanter und dringlicher denn je.

esMutter gehtErde DieWorum Suche nach

187

188

Wissenschaft

47 Chaos An einem Wintertag im Jahr 1961 ließ Edward Lorenz, Meteorologe am Massachusetts Institute of Technology, einfache Wetter-Simulationen durch ein Programm laufen, das er für seinen schwerfälligen Röhren-Computer geschrieben hatte. Er wollte einen bestimmten Durchlauf wiederholen und erweitern. Doch anstatt von vorn zu beginnen (was sich immer äußerst zeitaufwendig gestaltete), startete er in der Mitte und gab die Anfangswerte eines vorangegangenen Durchlaufs ein, die er auf einem Ausdruck vor sich hatte. Dann machte er Kaffeepause, ließ den Computer weiterlaufen und kam zurück in der Erwartung, die zweite Hälfte der ursprünglichen Simulation habe sich nun wiederholt. Stattdessen entdeckte er höchst erstaunt, dass das, was einfach nur ein Wiederholungsdurchlauf werden sollte, wenig Ähnlichkeit aufwies mit der ersten Version. Lorenz’ erster Gedanke war, dass eine Röhre geplatzt sei, doch dann begann ihm zu dämmern, was wirklich geschehen war. Das war keine Fehlfunktion des Computers. Die Zahlen, die er für den zweiten Durchgang eingegeben hatte, waren vom Computer von sechs Dezimalstellen auf drei gerundet worden, und zwar nur auf dem Ausdruck, nicht aber im Speicher. Eine solch winzige Abweichung, so nahm er an – um etwa eins von tausend –, hätte keinen Einfluss auf etwas in der Größenordnung meteorologischer Prognosen. Doch das hatte es. Ein winziger Unterschied in den Ausgangsbedingungen hatte einen großen Unterschied im Ergebnis verursacht. Wissenschaftliche Modelle Die immense Komplexität der Natur, und das Klima ist hierfür ein Paradebeispiel, hat Wissenschaftler bewogen, Modelle zu entwerfen. Modelle sind vereinfachte Annäherungen an die reale Welt, die es erlauben, Regelmäßigkeiten zu erkennen und mathematisch (d. h. mittels mathematischer Gleichungen) zu beschreiben. Man nimmt an, solche Modelle verhielten sich deterministisch: Ein zukünftiger Zustand eines Modells könne, zumindest in der Theorie, vollständig abgeleitet werden, indem man geeignete Gleichungen auf Daten anwendet, die den jetzigen Zustand beschreiben. Dieses Prozedere lässt sich „iterieren“, also immer und immer wieder wiederholen, wobei der Output eines Durchlaufs als

Zeitleiste 1687

1908

Isaac Newtons Principia Mathematica schlägt eine deterministische Sicht des Universums vor

Der französische Mathematiker Henri Poincaré untersucht die Komplexität und nichtlineare Gleichungen

Chaos

189

Input für den folgenden verwendet wird. Auf diese Weise lässt sich die Prognose immer weiter in die Zukunft hineinbewegen. Genau nach dieser Methode arbeitete Lorenz, als er im Winter 1961 sein Simulationsprogramm laufen ließ. Die Tatsache, dass das Programm nach nur wenigen Durchläufen auf der Grundlage praktisch identischer Ausgangsdaten zwei komplett verschiedene Ergebnisse geliefert hatte, stellte die ganze Methodologie in Frage. Sein Modell hatte offensichtlich unvorhersehbar reagiert und zufällige Ergebnisse geliefert: Es hatte sich – um es mit einem Terminus zu sagen, der damals noch gar nicht existierte – „chaotisch“ verhalten.

Möwen und Schmetterlinge Warum aber hatte sich Lorenz’ Klimasimulation chaotisch verhalten? Die zur Wetterprognose verwendeten mathematischen Gleichungen beschreiben die Veränderungen der relevanten Variablen in der Atmosphäre, etwa Temperatur, Luftfeuchtigkeit, Windgeschwindigkeit und Windrichtung. Ein wichtiges Kennzeichen dieser Variablen ist ihre wechselseitige Abhängigkeit: Beispielsweise wirkt sich die Temperatur auf das Ausmaß an Feuchtigkeit in der Luft aus, doch die Feuchtigkeit ihrerseits beeinflusst die Temperatur. In der Sprache der Mathematik ausgedrückt bedeutet dies, diese Variablen sind faktisch Funktionen ihrer selbst, sodass die Beziehungen zwischen ihnen durch sogenannte „nichtlineare“

In Newtons Uhrwerk klemmt ein Mutterschlüssel Wie Edward Lorenz hätten wohl die meisten Wissenschaftler in den 1960er Jahren angenommen, dass eine geringfügige Abweichung in den in ein System eingespeisten Ausgangsdaten unbedeutend sei. Bevor man erkannt hatte, welche umfassenden Folgen das Chaos bewirkt, sah die orthodoxe Wissenschaft die Welt weitgehend im Einklang mit dem mechanistischen, deterministischen Modell, das Newton knapp 300 Jahre zuvor vorgeschlagen hatte. Warum Phänomene wie das Wetter so schwer vorhersagbar sind, hatte danach nur einen

Grund, nämlich schlicht den, dass sie so dermaßen kompliziert sind. Allerdings, so dachte man, seien Vorhersagen durchaus möglich, in der Theorie zumindest, sofern alle relevanten physikalischen Prozesse vollständig verstanden und alle notwendigen Daten vorhanden wären. Als Folge daraus nahm man bereitwillig an, die Verlässlichkeit einer Vorhersage oder eines anderen Ergebnisses würde die Qualität der eingegebenen Daten reflektieren. Eine derartige Annahme aber wurde mit dem Aufkommen der Chaostheorie völlig torpediert.

1961

1960er

1975

1977

Ein Zufall bringt Edward Lorenz auf die Spur chaotischer Systeme

Der US-Mathematiker Stephen Smale entwickelt topologische Modelle nichtlinearer Systeme

Der US-Mathematiker James Yorke prägt den Begriff „Chaos“. Der in Polen geborene Mathematiker Benoît Mandelbrot prägt den Begriff „fraktal“

Erste internationale Konferenz zum Thema Chaos im italienischen Como

190

Wissenschaft Gleichungen beschrieben werden müssen. Einfach gesagt handelt es sich um Gleichungen, die sich nicht durch gerade Linien in einem Graphen darstellen lassen. Es zeigt sich, dass eine der Eigenschaften nichtlinearer Gleichungen ist, dass sie gerade jene Empfindlichkeit gegenüber den jeweiligen Ausgangsbedingungen aufweisen, die Lorenz 1961 derart schockiert hatte. Es gelang ihm daraufhin nachzuweisen, dass eine derartige Empfindlichkeit nicht bloß eine Folge der Komplexität ist, indem er zeigte, dass sie auch in einem sehr viel einfacheren Modell der Konvektion (der Wärmeströmung) auftrat, welches man mit lediglich drei nichtlinearen Gleichungen beschreiben konnte. Wenn seine Ideen korrekt seien, so gab Lorenz 1963 einen Kollegen wieder, dann reiche „ein Flügelschlag einer Möwe, um den Verlauf des Wetters drastisch zu verändern“. Bis 1972 war aus der Möwe ein Schmetterling geworden, wie Lorenz diesen Effekt der atmosphärischen Störung im Titel eines Aufsatzes bildhaft veranschaulicht: „Kann der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen?“ – die Metapher vom „Schmetterlingseffekt“ war damit geboren. Der Unordnung einen Sinn abringen Der Schmetterlingseffekt wurde von der Populärkultur begeistert aufgenommen, seine wahren Implikationen jedoch sind oft nicht wirklich verstanden. Für gewöhnlich benutzt man die Idee als etwas flapsige Metapher für die Art und Weise, wie Ereignisse von bedeutender Tragweite von Ordnung innerhalb der Unordnung „Wie sich herausstellt, kann eine unheimliche Form von Chaos direkt hinter einer Fassade der Ordnung lauern“ – eine Beobachtung, die der US-Wissenschaftler und Autor Douglas Hofstadter im Jahr 1985 macht, „und doch lauert tief im Innern des Chaos eine noch viel unheimlichere Form von Ordnung“. Chaotische Systeme mögen unvorhersagbar sein, doch sie sind nicht unbestimmt. Sie sind auch nicht ungeordnet oder chaotisch im gebräuchlichen Sinne des Wortes. Schon 1963 offenbarte Lorenz’ einfaches dreidimensionales Konvektionsmodell erstaunliche abstrakte Muster inmitten des Chaos: einen komplexen Doppelwirbel oder eine Spirale – den Flügeln eines Schmetterlings nicht unähnlich –, in welchen die Linien nie demselben Pfad folgen

und sich nie überschneiden. Der LorenzAttraktor, wie dieses Muster später genannt wurde, war das erste von vielen topologischen Modellen chaotischer Systeme, in welchen die Diagramme im Raum gefaltet und gestreckt waren und so das unvorhersagbare Schicksal, den Kurvenverlauf nichtlinearer Systeme abbildeten. In den 1970er Jahren entwickelten Benoît Mandelbrot und andere eine neue „fraktale“ Geometrie, in der die Ordnung innerhalb der Unordnung durch faszinierende unregelmäßige Strukturen reproduziert ist, die die seltsame Eigenschaft der „Selbstähnlichkeit“ aufweisen, in der sich ihre Unregelmäßigkeiten in verschiedenen Maßstäben und Dimensionen immer weiter wiederholen.

Chaos scheinbar kleinen unbedeutenden Ereignissen ausgelöst werden können. Die wahre Bedeutung des Effekts jedoch geht weit darüber hinaus. Der Flügelschlag eines Schmetterlings ist nur in dem schwachen Sinne die Ursache für einen Tornado insoweit als dieser möglicherweise nicht aufgekommen wäre, hätte der Schmetterling nicht zuvor mit den Flügeln geschlagen. Doch gibt es Abermillionen weiterer Schmetterlinge, und Milliarden anderer Faktoren, die für das Aufkommen des Tornados ebenso wichtig gewesen sein mögen. Eine Implikation ist die erstaunliche Empfindlichkeit des Systems gegenüber kleinsten Ereignissen innerhalb desselben. Und aus dieser ersten Implikation folgt eine weitere, die praktische Unmöglichkeit, die Ursachen jedweden Ereignisses in dem System zu identifizieren. Angesichts der Tatsache, dass winzig kleine Ereignisse gewaltige Effekte herbeiführen können, und diese winzig kleinen Ereignisse prinzipiell jenseits unseres Erfassungsvermögens liegen können, lässt möglicherweise den Schluss zu, dass das System, obgleich vollständig deterministisch, vollkommen unvorhersagbar ist. Lorenz zog den Schluss, dass langfristige Wetterprognosen möglicherweise grundsätzlich unmöglich sind, doch sind die Implikationen des Chaos sehr viel tiefgreifender. Das gewaltige Netzwerk unzähliger und miteinander verbundener Faktoren, die zusammen das globale Klima bestimmen, bildet beileibe keine Ausnahme. Auch physikalische und biologische Systeme sind mehrheitlich dieser Art, weshalb wissenschaftliche Versuche, sie mathematisch erklären zu wollen, immer ihre Nichtlinearität einbeziehen müssen, denn erst daraus ergibt sich die Möglichkeit, Chaosverhalten aufzuzeigen. Von ihren Ursprüngen in der Meteorologie hat sich die Chaostheorie über ein weites Spektrum von Disziplinen ausgebreitet, denen einzig gemein ist, dass sie sich mit scheinbarer Unordnung befassen: Turbulenzen in der Fluiddynamik; Artenfluktuation in der Populationsdynamik; Krankheitszyklen in der Epidemiologie; Herzkammerflimmern Heutzutage haben in der menschlichen Physiologie; Planeten- und Sternenbewegungen in der Astronomie; Verkehrsfluss in der Städteplanung. nicht einmal mehr unsere In einem philosophischeren Sinne: Die Eigenschaft des Chaos, Uhren ein Uhrwerk – die faszinierende und (wie manch einer sagen würde) schöne warum also sollte unsere Ordnung zu offenbaren, die der scheinbaren Unordnung der NaWelt eines sein? tur zugrundeliegt, und die uns Anlass gibt zu neuer Hoffnung, die höchst anregende Zufälligkeit des Universums zu begreifen Ian Stewart, britischer und mit ihr umzugehen. Mathematiker, 1989





Worum es geht Der Schmetterlingseffekt

191

192

Wissenschaft

48 Relativität „Die Welt reist für unterschiedliche Personen in unterschiedlichem Schritt.“ – Rosalinds Bemerkung gegenüber ihrem Liebhaber in Shakespeares Wie es euch gefällt gibt ein verbreitetes Gefühl wieder, eines, das Chester Cathedral in einem berühmten Epitaph festgehalten hat: „Als ich ein Kleinkind war und weinte und schlief, kroch die Zeit. Doch als ich älter wurde, flog die Zeit.“ Neben diesem subjektiven Empfinden vom Ebben und Fließen der Zeit, gab es in der menschlichen Geschichte allermeist auch eine weitere, gestrengere Form von Zeit: Das regelmäßige Ticken der Uhr der Natur, ein universales Metronom, das den Lauf des Lebens anzeigte, gleich für alle, überall, zu allen Zeiten. Dann plötzlich, 1905, wurde klar, dass Rosalinds Vorstellung von Zeit nahezu exakt den Tatsachen entsprach. Der Begriff Paradigmenwechsel wird heutzutage überstrapaziert, doch können wir ihn wortgenau und präzise auf die Zwillingstheorien der Relativität anwenden, die der deutschstämmige Physiker Albert Einstein im frühen 20. Jahrhundert entwickelt hat. In ihrem Zentrum steht die Einsicht, dass wir in einem vierdimensionalen Universum leben, in dem Masse, Raum und Zeit naturgemäß relativ sind, nicht absolut. Die Folgen, die sich daraus ergeben, haben die Praxis der Physik revolutioniert. Die Untersuchung der Elementarteilchen, aus denen alle Materie besteht (einschließlich uns selbst), wäre ohne relativistische Ideen unmöglich. Ebenso unmöglich wäre die Untersuchung der grundlegenden Vorgänge, die das Universum erschaffen und geformt haben. Die Relativitätstheorie hat zudem technologische Prozesse angetrieben. Die Erkundung des Weltraumes beispielsweise, in deren Zuge viele kommerzielle technologische Ableger entstanden wie die Satellitentechnologie oder das Satellitennavigationssystem (GPS), hängt grundlegend von relativistischen Berechnungen ab. Die Erzeugung von Kernkraft und der Bau von Massenvernichtungswaffen jedoch, wären ohne die revolutionären Theorien Einsteins, die sich die Energie der Atome zunutze machen, niemals möglich gewesen – und das ist die eher dunkle Kehrseite der Medaille.

Zeitleiste 1687 Issac Newton formuliert die klassischen Bewegungsgesetze und das Gravitationsgesetz

Relativität Die Physik vor Einstein In seinen Principia Mathematica (1687) definierte Isaac Newton Raum und Zeit als absolute Konzepte, die unberührt von äußeren Einflüssen bestehen. „Die absolute, wahre und mathematische Zeit, in sich und ihrer Natur nach ohne Beziehung zu irgendetwas Äusserem, fliesst gleichmässig dahin“, während „der absolute Raum … seiner Natur nach ohne Beziehung zu etwas Äusserem, immer gleich und unbeweglich [bleibt]“. Im Rahmen eines so beschriebenen Universums blieben Newtons Bewegungsgesetze und das Gravitationsgesetz innerhalb des Wissenschaftsbetriebs fast zweihundert Jahre lang weitgehend unangefochten. Gegen Ende des 19. Jahrhunderts jedoch begannen Anomalien deutlich zu werden beim Versuch, das Verhalten von Licht zu beschreiben. 1873 veröffentlichte der schottische Physiker James Clerk Maxwell seine Theorie des Elektromagnetismus, die vorhersagte, dass Licht sich mit der endlichen Geschwindigkeit von 186 000 Meilen pro Sekunde durch den leeren Raum bewegen würde. 1887 dann führten Albert Michelson und Edward Morley ein weithin beachtetes Experiment durch, das überraschenderweise zeigte, dass Messungen der Lichtgeschwindigkeit konstant und unbeeinflusst von der Geschwindigkeit der Erdrotation blieben – und damit der Newton’schen Mechanik offensichtlich trotzten. Die Spezielle Relativitätstheorie Nehmen wir an, Sie reisen in einem Zug mit einer konstanten Geschwindigkeit und auf gerader Linie (und nehmen wir zudem an, in diesem etwas idealisierten Zug gäbe es keinerlei Stöße oder Vibrationen, verursacht durch seine Bewegung). Wenn Sie außerhalb des Zuges nun nichts sehen, so könnten Sie diesen Zustand nicht unterscheiden von dem eines stillstehenden Zuges. Würden Sie beispielsweise einen Ball fangen wollen, wäre dies genauso als wären Sie in einem stehenden Zug. Wenn zudem alles, was Sie außerhalb des Zuges sehen könnten, ein weiterer (ebenfalls idealisierter) Zug wäre, der mit gleicher Geschwindigkeit auf einem parallelen Gleis fährt, so wäre es unmöglich, festzustellen, dass einer der Züge sich bewegte. Nur wenn Ihr eigener Zug seine Geschwindigkeit oder Richtung ändert, könnten Sie feststellen, dass Sie sich bewegen. Fachlich gesprochen ist Ihr Zug Ihr „Bezugssystem“, und solange er sich geradeaus und mit konstanter Geschwindigkeit bewegt, wird er als „inertes“ (träges) Bezugssystem beschrieben. Einsteins Lösung, die Schwierigkeiten, die sich mit dem Verhalten von Licht ergaben, zu überwinden, bestand erstens darin, eisern darauf zu beharren, dass die Gesetze der Natur innerhalb aller inerten Bezugsrahmen für alle Beobachter dieselben sind; und diese Feststellung zweitens auszudehnen auf die Fortpflanzung des Lichts, sodass die Geschwindigkeit des Lichts für alle Beobachter konstant ist, unabhängig von der relativen Bewegung der Beobachter. Obwohl

1905

1916

1919

Einsteins Spezielle Relativitätstheorie gibt eine relativistische Darstellung von Raum, Zeit, Masse und Energie

Die Allgemeine Relativitätstheorie erklärt die Gravitation als eine Konsequenz der Geometrie der Raum-Zeit

Arthur Eddington beobachtet: Die Schwerkraft der Sonne krümmt den Raum, und das Sternenlicht folgt der Krümmung

193

194

Wissenschaft dies dem gesunden Menschenverstand widerspricht, ist dieses zweite Postulat nichts anderes als die Anerkennung der Hinweise, die Maxwell mit seiner Theorie und Michelson/Morley mit ihrem Experiment gegeben haben. Stellen Sie sich nun vor, Sie montieren an dem Zug ein simples, einer Uhr ähnliches Gerät. Es besteht aus zwei Spiegeln, die sich einander gegenüber befinden und durch einen vertikalen Stab getrennt sind. Das „Ticken“ der Uhr wird dargestellt durch einen Lichtstrahl, der zwischen den Spiegeln hin und her schwingt. In Ihrem Bezugssystem (dem fahrenden Zug) sehen Sie den Lichtstrahl senkrecht auf und ab schwingen; ein Beobachter aber in einem anderen Bezugssystem (sagen wir einer, der auf einem Bahnsteig sitzt) wird den Lichtstrahl in einer Zick-Zack-Bewegung sehen. Da nun die Lichtgeschwindigkeit gemäß Einsteins zweitem Postulat in allen Bezugssystemen konstant ist, braucht der Strahl für den längeren Zick-ZackWeg mehr Zeit. Anders gesagt, für den Beobachter auf dem Bahnsteig tickt die Uhr langsamer! In der Erfahrungswelt unseres Alltags, in der sich die Dinge in winzigsten Bruchteilen der Lichtgeschwindigkeit bewegen, fällt dieses Phänomen der Zeitdilatation nicht auf. Es wurde jedoch wiederholt nachgewiesen bei subatomaren Partikeln, die sich mit Geschwindigkeiten nahe der Lichtgeschwindigkeit bewegen. Eine der Kon-

E = mc 2 Eine weitere Konsequenz aus Einsteins Spezieller Relativitätstheorie ist die Äquivalenz von Masse und Energie. In Beziehung gesetzt werden diese beiden Aspekte der im Grunde genommen ein und derselben Sache mit der berühmten Formel E = mc2 – Energie (E) ist gleich Masse (m) mal Lichtgeschwindigkeit (c) zum Quadrat. Wie Raum und Zeit sind auch sie relativistisch: Die Masse eines Körpers wächst mit der Geschwindigkeit und geht bei Annäherung an die Lichtgeschwindigkeit gegen unendlich. Jedoch wäre eine unendliche Energiemenge vonnöten, einen physikalischen Körper auf diese Geschwindigkeit zu beschleunigen, und eben deshalb ist die Lichtgeschwindigkeit das theoretische Tempolimit im Universum. Da die Lichtgeschwindigkeit im Quadrat eine riesige Zahl darstellt, be-

deutet die Energie-Masse-Gleichung, dass eine geringe Masse in eine große Energiemenge verwandelt werden kann – eine Tatsache, die eindrucksvoll bestätigt wurde durch den Einsatz von Atomwaffen, die weniger als ein Prozent ihrer Masse in Energie verwandeln. 1931 bereits mahnte Einstein, dass die Wissenschaftler alles dafür tun müssten, um sicherzustellen, dass ihre Schöpfungen „ein Segen und kein Fluch für die Menschheit“ würden – Worte, deren tragische Ironie sich noch enthüllen sollten. Fünfzehn Jahre später – unter der Nachwirkung von Hiroshima und Nagasaki – schrieb er ernüchtert: „Die entfesselte Macht des Atoms hat alles verändert, nur nicht unsere Denkweise, und deshalb bewegen wir uns auf eine Katastrophe ohnegleichen zu.“

Relativität sequenzen der Zeitdilatation ist, dass auch die Gleichzeitigkeit relativ wird – Ereignisse, die innerhalb eines Bezugssystems gleichzeitig stattfinden, können in einem anderen ungleichzeitig auftreten. Und eine ähnliche Gedankenfolge führt zur Raumkontraktion: Die Länge eines Objekts schrumpft entlang seiner Bewegungsrichtung. Da Zeit und Raum damit fließend und veränderlich werden, verschmelzen sie miteinander und verlieren ihre getrennten Identitäten. An ihre Stelle tritt eine Vereinigung von Raum und Zeit: ein vierdimensionales Raum-Zeit-Kontinuum, in dem die Zeit die vierte Dimension darstellt.



Wenn ein Mann eine Stunde mit einem hübschen Mädchen zusammensitzt, kommt ihm die Zeit wie eine Minute vor. Sitzt er dagegen auf einem heißen Ofen, scheint ihm schon eine Minute länger zu dauern als jede Stunde. Das ist Relativität. Albert Einstein, ca. 1954



Die Allgemeine Relativitätstheorie Newtons Gravitationstheorie verstößt gegen die Spezielle Relativitätstheorie insofern, als dass sie eine mysteriöse „Fernwirkung“ beinhaltet, durch welche Objekte wie die Sonne und die Erde eine unmittelbare Anziehungskraft aufeinander ausüben. Um ein zufriedenstellendes neues System zu entwickeln, formulierte Einstein seine Allgemeine Relativitätstheorie, mit der er sich über die Spezielle Theorie hinausbewegte und nicht-inerte Bezugssysteme miteinbezog – d. h. Bezugssysteme, die sich in Relation zueinander beschleunigen. In diesem Kontext gelangte Einstein zu einer tiefen Einsicht, dem Äquivalenzprinzip, wonach physikalische Effekte, die infolge der Gravitation auftreten, nicht unterscheidbar sind von solchen, die infolge der Beschleunigung auftreten. Mal angenommen, Sie befänden sich in einem kaputten Aufzug, der frei nach unten fällt. Sie werden ihr eigenes Gewicht nicht spüren, da Sie und der Lift mit derselben Beschleunigung nach unten fallen. Sofern Sie nicht auf ein anderes System Bezug nehmen können (also etwas außerhalb des Lifts sehen), wird es Ihnen unmöglich sein festzustellen, dass sie sich in einem Gravitationsfeld befinden. Nun betrachten wir das Verhalten eines Lichtstrahles, der sich durch diesen Lift bewegt, parallel zum Boden. Stünde der Lift still, so würde das Licht in einer geraden Linie durch ihn hindurch wandern. Doch da der Lift auf seinem Weg nach unten beschleunigt wird, wird der Lichtstrahl nach oben hin gekrümmt. Vorausgesetzt also, dass das Licht in einem beschleunigten Bezugssystem gekrümmt wird, sollte es – gemäß dem Äquivalenzprinzip – auch durch die Gravitation gekrümmt werden. Also muss Licht, das sich „geradeaus“ bewegt, in der Umgebung einer gravitativen Masse etwas ganz Anderes bedeuten. Einstein zog mit seiner Raum-Zeit-Konzeption, die er aus der Speziellen Relativitätstheorie ableitet, den Schluss, dass die Raum-Zeit selbst nunmehr verzerrt oder gekrümmt wurde. Die Gravitation, so seine Erkenntnis, ist ein Phänomen, das sich aus der Form der Raum-Zeit selbst ergibt – aus der eigentlichen Geometrie des Universums.

Worum von es Raum gehtund Zeit Das Verschmelzen

195

196

Wissenschaft

49 Quantenmechanik Eine Katze wird in einen Stahlkasten gesetzt. Ebenfalls in dem Kasten, außerhalb der Reichweite der Katze, befinden sich ein Geigerzähler und eine geringe Menge einer radioaktiven Substanz – derart gering, dass eines der Atome mit einer fünfzigprozentigen Wahrscheinlichkeit binnen einer Stunde zerfallen wird. Sobald dies geschieht, registriert der Geigerzähler die freigesetzte Strahlung und schlägt aus, was wiederum einen Federmechanismus in Bewegung setzt und damit einen Hammer, der einen kleinen Glaskolben mit Blausäure zerschlägt. Das tödliche Gas entweicht und tötet die Katze.

Wird der Kasten also nach einer Stunde geöffnet, besteht eine fünfzigprozentige Chance, dass die Katze tot ist. Doch die Dinge sind nicht so einfach, wie sie scheinen. Die moderne Physik sagt uns, dass das Verhalten von Materie und Energie auf atomarer und subatomarer Ebene (inklusive des radioaktiven Materials, das sich im Kasten zusammen mit der Katze befindet) am genauesten durch die Quantenmechanik beschrieben wird. Und gemäß derjenigen Sicht der Quantenwelt, die heute von den meisten Physikern geteilt wird, sind Bewegung und Interaktion von atomaren und subatomaren Teilchen grundsätzlich unbestimmt, bis sie gemessen werden. Im Falle unserer Katze befindet sich das Atom in einem „Überlagerungszustand“ zweier möglicher Zustände – zerfallen und nicht zerfallen –, und in diesem ungeklärten Zustand verbleibt es, bis eine Beobachtung gemacht wird. Bis zu diesem Zeitpunkt ist das Quanten-Ereignis von grundlegend unscharfer oder unbestimmter Natur, die sich nur mittels der Wahrscheinlichkeit möglicher Ergebnisse beschreiben lässt. Während eine solche Unbestimmtheit (Indeterminiertheit) uns in der mikroskopischen Welt nicht unerträglich seltsam vorkommen mag, sind die bizarren Folgen daraus, wie sie in unserer alltäglichen Welt erlebbar sind, weit schwerer zu ertragen. Und so scheint es für unseren Fall so, dass die Katze in gewisser Hinsicht sowohl tot als auch lebendig ist, bis der Kasten geöffnet wird! Schrödingers Katze Erdacht wurde dieses oben skizzierte Gedankenexperiment erstmals 1935 von einem der Pioniere der Quantenmechanik, dem österreichischen Physiker Erwin Schrödinger. Dabei ging es ihm bei Weitem nicht darum,

Zeitleiste 1900

1905

1913

Planck nimmt quantisierte Energie an, um die Strahlung heißer Körper zu erklären

Einstein nutzt quantisierte Lichtteilchen (Photonen), um den photoelektrischen Effekt zu erklären

Bohr schlägt neues Atommodell vor, das auf den Prinzipien der Quantenmechanik basiert

Quantenmechanik die Idee von gleichzeitig toten und lebendigen Katzen zu fördern, denn eigentlich wollte er anhand des Beispiels das Absurde im orthodoxen Verständnis der Quantenwelt demonstrieren. Das Problem, auf das er sich dabei konzentrierte, das sogenannte „Messproblem“, ist nur eine von vielen Kuriositäten, die dieser höchst eigenartige Wissenschaftszweig bietet. Doch trotz der äußerst kontraintuitiven Aspekte hat sich die Quantenmechanik als ein überaus erfolgreiches Modell erwiesen, dessen Ergebnisse unzählige Male experimentell bestätigt worden sind. Als eine krönende Errungenschaft der Wissenschaft im 20. Jahrhundert geht sie einher mit Einsteins Relativitätstheorien und unWenn es um Atome geht, termauert praktisch jeden Aspekt der heutigen Praxis der Phylässt sich Sprache nur wie sik. Zudem hatte sie tiefgreifende praktische Auswirkungen auf die Technologie, wo die vielseitigen Anwendungen von in der Dichtkunst verwenSupraleitern bis hin zu superschnellen Computern reichen. den. Auch den Dichter Wie aber wollen wir nun die Quantenwelt mit unserer allkümmert das Beschreiben täglichen Erfahrungswelt in Einklang bringen? Zwingt uns von Fakten weniger als das das bizarre Verhalten von atomaren und subatomaren TeilSchaffen von Bildern. chen dazu, unser Verständnis der Wirklichkeit neu zu bewerten? Niels Bohr, undatiert





Von der Verzweiflung zur Hoffnung Zu Beginn des 20. Jahrhunderts hatte sich das physikalische Verständnis von den Zusammenhängen unserer Welt im Großen und Ganzen nur wenig entfernt von dem klassischen Pfad, den Isaac Newton der Physik mehr als 200 Jahre zuvor gewiesen hatte. So etwa war man sich weitgehend einig darin, dass sich das Verhalten von Licht am besten über die beobachteten wellenartigen Eigenschaften beschreiben lässt. Mit der Beschreibung des Lichts als Welle ließen sich Phänomene erklären wie etwa die Diffraktion oder Interferenz, für wieder andere jedoch, darunter die Absorption oder die Emission von Licht, funktionierte dies ganz offenkundig nicht. Es lag hauptsächlich an diesen Misserfolgen, dass man nach neuen Pfaden suchte, auf denen die ersten Schritte hinein in die Quantenwelt führten. Besonders auffallend war eine Erklärungslücke, die die vorherrschende klassische Sicht nicht zu schließen vermochte. Sie betraf die sogenannte „Strahlung schwarzer Körper“ oder „Schwarzkörperstrahlung“, die Art wie glühend heiße Körper Hitze abstrahlen, wobei sie zunächst rot, dann gelb und schließlich weiß glühen, je heißer sie werden. Diese anscheinende Anomalie, der er auf den Grund gehen wollte, bewog den deutschen Physiker Max Planck zu einem, wie er es selbst formulierte, „Akt der Verzweiflung“. Damit die Gleichungen, die die Schwarzkörper-

1924

1925

1926

1927

Louis de Broglie etabliert das Konzept des WelleTeilchen-Dualismus

Matrizenmechanik von Werner Heisenberg

Schrödinger schafft mit der Wellengleichung die Grundlage für die Wellenmechanik

Heisenberg formuliert die Unschärfe-Relation

197

198

Wissenschaft strahlung beschrieben, auch aufgingen, traf Planck zu ihrer „Reparatur“ die kühne Annahme, dass die Strahlung (Energie), die ein heißer Körper emittiert, nicht kontinuierlich abgegeben wird, sondern in einzelnen Energiepaketen, die er als „Quanten“ bezeichnet (abgeleitet vom lateinischen Wort für „Mengen“). Während Planck selbst nicht davon ausging, dass seine Annahme eine zugrundeliegende Wirklichkeit widerspiegele, brachte Einstein fünf Jahre später eine ähnliche Methode erfolgreich in Anwendung für ein weiteres Problem, das sich ebenfalls einer Lösung innerhalb der klassischen Mechanik widersetzt hatte. Es betraf den Photoelektrischen Effekt, bei dem es um die Frage ging, wie eine Metallober-

Quanten-Dilemma „Wer über Quantenmechanik nachdenken kann, ohne wirr im Kopf zu werden, hat sie nicht wirklich verstanden“, so Niels Bohr. Die Unbestimmtheit im Kern der Quantenmechanik bringt Werner Heisenberg mit seiner Unschärferelation (1927) klar auf den Punkt. Sie besagt, dass die beiden komplementären Eigenschaften Ort und Impuls eines subatomaren Teilchens nicht gleichzeitig exakt messbar sind: Je genauer eine der Größen bekannt ist, desto weniger exakt lässt sich die andere feststellen. Da die Ereignisse in der Quantenwelt dem puren Zufall unterworfen sind, sahen viele darin einen Weg, die Vorstellung vom physikalischen Determinismus zu umgehen und damit die Vorstellung vom freien Willen zu retten. Andere hingegen haben klugerweise zu Vorsicht gemahnt, darunter auch de Broglie im Jahr 1962: „Es ist sehr viel sicherer und weiser, als Physiker auf dem festen Grund der theoretischen Physik zu bleiben und den Treibsand philosophischer Extrapolationen zu meiden.“ Das eigenartige Verhalten der Materie in der Quantenwelt hat durchgängig für Debatten über weiter reichende Folgen der modernen Physik für unser alltägliches Ver-

ständnis der Realität gesorgt. Das Messproblem ist hierfür ein besonders frappantes Beispiel: Die Idee, dass die Eigenschaft eines Quantenzustandes nicht „bestimmt“ (determiniert) ist, bis er gemessen wird. Der Zustand ist in Wirklichkeit im Grunde völlig unbestimmt (indeterminiert), eine Kombination möglicher Ergebnisse, bis zu dem Zeitpunkt, da der Messprozess bestimmt, welcher Zustand nun tatsächlich gilt. Die orthodoxe Sichtweise unter Physikern war lange Zeit die sogenannte „Kopenhagener Deutung“, die größtenteils Bohr zugeschrieben wird, der in der dänischen Hauptstadt ansässig war. Ihre Grundannahme ist praktisch die, dass die Unbestimmtheit, die wir in der Natur beobachten, von grundsätzlicher Art sei: Als solche sollten wir sie einfach akzeptieren und abwarten, wohin uns die Berechnungen führen. Einstein, und nicht nur er, war nicht bereit, eine derart optimistische Sicht einzunehmen. Er bestand darauf, dass die Quantenmechanik unvollständig sein müsse, und dass, wenn die „verborgenen Variablen“ bekannt wären, eine eher verträgliche klassische und deterministische Wirklichkeit offenbar werden würde.

Quantenmechanik fläche unter Bestrahlung von Licht Elektrizität erzeugt. Inspiriert von Plancks „Quantisierung der Energie“ stützt Einsteins Lösung sich auf die entscheidende Annahme, dass Licht aus diskreten Gebilden (Quanten) bestünde, den sogenannten Photonen. Eine weitere Bestätigung für Plancks Hypothese folgte 1913, als der dänische Physiker Niels Bohr ein neues Atommodell vorschlug, das die quantenmechanischen Prinzipien nutzte, um die Atomstabilität bei der Absorption und Abstrahlung von Energie zu erklären. Welle-Teilchen-Dualismus Das Licht stellte damit also ein großes Rätsel und eine große Herausforderung dar. Während die klassische Wellentheorie in manchen Bereichen erwiesenermaßen funktionierte, waren die Ansätze von Planck, Einstein und Bohr nur dadurch erfolgreich, dass sie dem Licht Teilchen-ähnliches Verhalten zuschrieben. Es wurde immer klarer, dass es auf der Ebene der Elementarteilchen nicht länger möglich war, die scharfe klassische Trennung zwischen Wellen (die durch den Raum strahlen und lediglich Energie durch den Raum transportieren) und Teilchen (die umherwandern und Masse und Energie tragen) aufrechtzuerhalten. Was war nun Licht: Welle oder Teilchen? Wie sich letztlich herauskristallisierte, war das Licht auf seltsame Weise beides. Elektromagnetische Strahlung (sichtbares Licht inbegriffen) und Elementarteilchen (aus denen Materie besteht) zeigen einen sogenannten „Welle-Teilchen-Dualismus“. Die Anerkennung dieser Idee, der wohl grundlegendsten in der Quantenmechanik, erfolgte formell durch den französischen Physiker Louis de Broglie im Jahr 1924. So wie Einstein zuvor bereits vorgeschlagen hatte, dass Strahlung ein Teilchen-ähnliches Verhalten aufweisen kann, argumentierte nun auch de Broglie, dass Materie (Elektronen und andere Teilchen) Wellen-ähnliche Eigenschaften zeigen können. Mit einer außergewöhnlichen Welle von Forscherdrang Mitte der 1920er Jahre gelang es einer Reihe von (hauptsächlich) deutschen Physikern, die mathematischen Grundlagen der Quantenmechanik zu formulieren. 1925 entwickelte Werner Heisenberg einen Ansatz, der seither als Matrizenmechanik bekannt ist. Im Jahr darauf formulierte Schrödinger die Wellenmechanik und zeigte zugleich, dass sein Ansatz mathematisch dem von Heisenberg entsprach. Mit dieser drastisch neuen Beschreibung der elementaren Natur von Materie war das klassische Bild von Elektronen als diskreten Teilchen, die um einen Atomkern kreisen, ersetzt durch geisterhafte Halokerne, verschmiert über probabilistisch definierte Pfade.

WorumPoesie es geht Die (seltsame) der Atome

199

200

Wissenschaft

50 Der Urknall Dass der wohl wichtigste Moment in der Geschichte des Universums – sein erster Moment – in nahezu vollständige Dunkelheit getaucht ist, ist frustrierend. Nun, unser vollständiges Unwissen betrifft bloß das (näherungsweise) erste Millionstel einer Sekunde in der Existenz des Universums, wohingegen die Kosmologen über das, was in den folgenden 13 700 000 000 Jahren geschah, zahlreiche Theorien haben. Unser Unwissen über den Moment der angenommenen Entstehung des Universums – den Big Bang, den Urknall – ist in der Tat gravierend. Nicht nur, dass wir nicht wissen, was in diesem winzigen Bruchteil einer Sekunde genau geschah. Es ist nicht einmal klar, ob es überhaupt geschah! Die Urknall-Theorie ist unter den heutigen Wissenschaftlern das populärste kosmologische Modell vom Ursprung und der Entwicklung des Universums und weitestgehend anerkannt. Dieser Theorie zufolge entstammt das Universum einem katastrophalen Ereignis, in dem die gesamte Materie, zu jenem Zeitpunkt unendlich komprimiert in einem einzigen dimensionslosen Punkt, extrem schnell zu expandieren und sich abzukühlen begann. Dieser große Knall also, die riesige Explosion, war es, die jene Abfolge von Ereignissen in Gang setzte, die, ungefähr 13,7 Milliarden Jahre später, zu den unermesslichen Strukturen aus unzähligen Sternen und Galaxien führten, wie wir sie heute kennen. Die Vorstellung eines sich ausdehnenden Universums ist heute als die zusammenführende Idee der modernen Kosmologie anerkannt. Die Unsicherheit in diesem Modell betrifft nicht so sehr die nachfolgende Entwicklung – obgleich deren Details naturgemäß Gegenstand intensiver Spekulationen sind – als vielmehr den Urknall selbst. Die Vorstellung einer „ursprünglichen Singularität“, wie der Urknall formal bezeichnet wird, ergibt sich, offenbar unausweichlich, aus Einsteins Allgemeiner Relativitätstheorie. Die daraus abgeleiteten, unterschiedlichen kosmologischen Modelle gehen allesamt von einer (Anfangs-) Singularität aus, die einem Kosmos entspricht, in dem die Dichte und Temperatur der Materie sowie die Krümmung der Raumzeit unendlich sind. Und an diesem Punkt beginnt die Expansion, wobei die Materie im Laufe des Prozesses weniger

Zeitleiste 1916

1910er und 1920er

1920er

Einstein publiziert die Allgemeine Relativitätstheorie

Vesto Slipher beobachtet Rotverschiebung bei sich entfernenden Nebeln

Alexander Friedmann und Georges Lemaître schlagen ein expandierendes Universum vor

Der Urknall

201

dicht wird und abkühlt. Die Schwierigkeit entsteht, da die Physik heute bezweifelt, dass die Gleichungen der Allgemeinen Relativität unter den extremen physikalischen Bedingungen, welche im Moment der ursprünglichen Singularität herrschten, ihre Gültigkeit behalten würden. Bei derart hohen Dichten, so nimmt man heute allgemein an, sind die normalen Gesetze der Physik nicht mehr anwendbar und die allgemeine Relativität muss ersetzt werden durch eine komplettere Theorie in der Art, die allgemein bekannt ist als „Quantengravitation“. Die sogenannte „Superstring“Theorie könnte diese Rolle sehr gut besetzen, jedoch ist unbekannt, ob diese oder ob eine der konkurrierenden Theorien eine Singularität vorhersagen werden. Und so sind, obgleich die Mehrheit der Kosmologen dem Modell eines einzelnen heißen Urknalls den Vorzug gibt, auch eine Anzahl alternativer, nicht-singulärer Kosmologien vorgeschlagen worden. Den Test der Zeit bestehen Dass das derzeitige Universum zumindest so aussieht, als sei es in der Vergangenheit einer gewaltigen Explosion in der Art eines Urknalls unterworfen gewesen, darüber besteht kein Zweifel. Immerhin, zumal es überzeugende Beweise gibt, die nahelegen, dass dem so war. Der wichtigste solcher Beweisstränge ist die Tatsache der Expansion, die sich aus den Gleichungen der Allgemeinen Relativitätstheorie ergibt, die Einstein 1916 erstmals veröffentlicht hat, und die Einstein sehr wohl erkannte. Doch um seine eigene Überzeugung zu retten, das Universum sei statisch, fügte er in die Gleichungen dieser Theorie eine kompensatorische Kraft ein, die „kosmologische Konstante“ – einen Schritt, den er später als „die größte Eselei meines Lebens“ bezeichnete. Die beobachtete Expansion des Universums häufte sich sporadisch zwischen 1910 und 1930 und gipfelte 1929 in einem Gesetz, das vom amerikanischen Astronomen Edwin Hubble formuliert und nach ihm benannt wurde. Hubble, der vor allem unterstützt wurde von Milton Humason, machte die Beobachtung, dass das von benachbarten Galaxien ausgesandte Licht einer „Rotverschiebung“ unterlag – es hatte sich in Richtung des roten Endes des Farbenspektrums verschoben. Dieses Phänomen, das analog ist



Du brauchst nicht weit zu suchen, um den Ort zu bestimmen, an dem der Urknall stattfand. Denn er fand da statt, wo du jetzt gerade stehst, ebenso wie überall sonst; am Beginn waren alle Orte, die wir heute als getrennte Orte sehen, ein- und derselbe Ort. Brian Greene, US-amerikanischer Superstring-Theoretiker, 1999



1929

Mitte 1940er

1948

1965

Das Hubble-Gesetz setzt die Geschwindigkeit sich entfernender Galaxien in Bezug zu deren Abstand vom Beobachter

George Gamow u. a. erklären die Synthese der leichten Elemente während des Urknalls

Alpher und Herman sagen die kosmische Hintergrundstrahlung im Mikrowellenbereich (cosmic microwave background, CMB) voraus

Arno Penzias und Robert Wilson bestätigen die Existenz der kosmischen Hintergrundstrahlung

202

Wissenschaft zum Doppler-Effekt beim Schall, zeigt an, dass die Lichtwellen gedehnt wurden und sich die betroffenen Galaxien von der unseren fortbewegten. Wiederholte Messungen haben gezeigt, dass die Geschwindigkeiten, mit denen die Galaxien sich von uns fortbewegen, proportional sind zu ihrer Entfernung – dass sich eine Galaxie umso schneller von uns fortbewegt –, je weiter sie entfernt ist – so der Kern des Hubble-Gesetzes. Wenn sich etwas ausdehnt, so denken wir für gewöhnlich, es nehme dadurch mehr Raum ein. Expansion in diesem Sinne ist Ausdehnung im oder durch den Raum. Doch im Falle des Urknalls existierte kein Raum „außerhalb“, in den hinein die Expansion hätte erfolgen können: Die dem Urknall folgende Expansion war (und ist) die Expansion des Raumes selbst und erfolgte überall zugleich. Bei der Fortbewegung der Galaxien, die Hubble beobachtete, handelt es sich nicht um Galaxien, die sich von uns durch den Raum entfernen. Sie und wir verbleiben relativ zueinander und zu allem anderen auf weitgehend den gleichen Positionen: Es ist der Raum selbst, der sich zwischen uns befindet, der expandiert und uns auseinander

Gott und der Anbeginn der Zeit Es erscheint ganz normal, sich zu fragen, was denn vor dem Urknall geschehen sei. Die Frage ist, nicht nur, aber vor allem, von theologischer Seite gestellt worden, um den Bezug Gottes zum Moment der Erschaffung des Universums zu erforschen. Tatsächlich jedoch hat diese Frage keinerlei Bedeutung, denn Raum und Zeit wurden im Moment des Urknalls geschaffen. In der Analogie, die der britische Physiker Stephen Hawking benutzt, wäre dies so, als würde man fragen, was denn nördlich des Nordpols läge – und diese Frage ergibt anerkanntermaßen keinen logischen Sinn. In seinem gefeierten Buch von 1988 Eine kurze Geschichte der Zeit geht Hawking auf die darin enthaltenen Konzepte ausführlicher ein: „Man kann sagen, daß die Zeit mit dem Urknall beginnt – in dem Sinne, daß frühere Zeiten einfach nicht definiert sind. Es sei betont, daß sich dieser Zeitbeginn grundlegend von jenen Vorstellungen unterschei-

det, mit deren Hilfe man ihn sich früher ausgemalt hat. In einem unveränderlichen Universum muss ein Anfang in der Zeit von einem Wesen außerhalb dieser Welt veranlasst werden – es gibt keine physikalische Notwendigkeit für einen Anfang. Die Erschaffung des Universums durch Gott ist buchstäblich zu jedem Zeitpunkt in der Vergangenheit vorstellbar. Wenn sich das Universum hingegen ausdehnt, könnte es physikalische Gründe für einen Anfang geben. Man könnte sich noch immer vorstellen, Gott habe die Welt im Augenblick des Urknalls erschaffen oder auch danach, indem er ihr den Anschein verlieh, es habe einen Urknall gegeben. Aber es wäre sinnlos anzunehmen, sie sei vor dem Urknall geschaffen worden. Das Modell eines expandierenden Universums schließt einen Schöpfer nicht aus, grenzt aber den Zeitpunkt ein, da er sein Werk verrichtet haben könnte!“

Der Urknall bewegt. Diese Art der Ausdehnung hat man mit dem Aufgehen eines Hefekuchens verglichen, in dem sich alle Rosinen während des Backvorganges, entsprechend unseren Galaxien, weiter und weiter auseinander bewegen; nur dass es im Falle des Universums, da es ja kein „Außerhalb“ gibt, auch keinen Rand und kein Zentrum gibt. Dies ist ein Aspekt des sogenannten „Kosmologischen Prinzips“, dem zufolge das Universum im Wesentlichen in alle Richtung gleich ist und seine Expansion für alle Beobachter gleich ist. Es gibt keine privilegierte Position für uns oder irgendeinen anderen denkbaren Beobachter. Neben der beobachteten Auseinanderbewegung der Galaxien existieren zwei weitere besonders wichtige Beweisstränge, welche die Theorie des heißen Urknalls stützen. Gemäß der Theorie sollen sich die Kerne der leichteren Elemente, insbesondere Wasserstoff und Helium, in den allerersten Momenten nach dem Knall gebildet haben, als die Temperaturen auf einige Milliarden Grad gefallen waren. Die große Menge dieser Elemente, die heute im Universum festzustellen ist, stimmt ziemlich genau mit den Mengen überein, wie sie die Theorie vorhersagt. Einen gar noch direkteren Beweis, dass das Universum durch eine dichte, heiße Phase gegangen ist, liefert die kosmische Hintergrundstrahlung im Mikrowellenbereich oder Drei-Kelvin-Strahlung (cosmic microwave background, CMB). Diese Strahlung niedriger Energiedichte, ein Überbleibsel des heißen frühen Universums, durchdringt den gesamten Raum und badet die Erde in einem dünnen Leuchten, das aus allen Richtungen kommt. Die Existenz der CMB als Überbleibsel des Urknalls war bereits 1948 vorhergesagt und 1965 eher zufällig entdeckt worden. Die Entdeckung der CMB bot nicht nur eine weitere Bestätigung der Urknalltheorie, sondern die seinerzeit größte rivalisierende Theorie, die Gleichgewichtstheorie, war damit so gut wie erledigt. Sie vermochte es nicht, ebenso wenig wie die anderen rivalisierenden Theorien, in ähnlich zufriedenstellender Weise die verschiedenen Stränge der empirischen Erkenntnisse zu erklären. Der Urknall, der bislang alle seine großen Herausforderer abgeschmettert hat, bleibt der Eckpfeiler der modernen Kosmologie.

Worum geht Der Beginn vones Raum und Zeit

203

204

Glossar Absolutismus In der Ethik die Sichtweise, dass bestimmte Handlungen unabhängig von ihren Umständen und Folgen als richtig oder falsch gelten. In der Politik das Prinzip, dass Macht und Rechte einer Regierung uneingeschränkt sind. Ästhetik Ein Zweig der Philosophie, der sich mit den Künsten befasst, mit der Natur und Definition von Kunstwerken, der Grundlage ästhetischer Werte sowie mit der Rechtfertigung von Kunstverstand und Kunstkritik. Amerikanische Revolution Der politische und militärische Kampf, der 1781 endete, in dem die nordamerikanischen Siedler sich von der britischen Herrschaft befreiten. Aufklärung Das „Zeitalter der Vernunft“, eine Periode historischer Denkmuster in der westlichen Welt, die im ausgehenden 17. Jahrhundert begann und von der Wissenschaftlichen Revolution getrieben war. Die Macht des Verstandes wurde über die Autorität von Religion und Tradition erhoben. darwinistisch Der Begriff bezieht sich auf den englischen Biologen Charles Darwin (1809–82) oder auf seine Lehre von der stammesgeschichtlichen Entwicklung durch natürliche Selektion (Evolutionstheorie). Determinismus Die Lehre von der Vorbestimmtheit allen Geschehens, wonach jedes Ereignis einen ursächlichen Grund hat und daher jeder Zustand durch einen vorangegange-

nen Zustand bedingt oder determiniert ist. Insoweit der Determinismus unsere Handlungsfreiheit untergräbt, steht er im Widerspruch zur Willensfreiheit. Dogmatismus Starres Festhalten an bestimmten Lehrmeinungen mit einhergehender Widerwilligkeit, andere Anschauungen zu betrachten. Dualismus In der Philosophie des Geistes die Position, wonach Geist (oder Seele) und Materie (oder Körper) wesensmäßig verschieden sind. Der Substanzdualismus argumentiert, dass Geist und Materie zwei grundlegend verschiedene Substanzen sind. Dem Dualismus gegenüber steht der Idealismus/Immaterialismus (betrachtet Geist und Ideen als eigentlich Wirkliches) sowie der Physikalismus/Materialismus (betrachtet Körper und Materie als eigentlich Wirkliches). Dynamik Teilbereich der Physik, der sich mit der Bewegung von Körpern befasst. Egoismus In der Philosophie die Ansicht, wonach der Mensch in all seinen Handlungen von Selbstinteresse geleitet ist (psychologischer Egoismus) oder er davon geleitet werden sollte (ethischer Egoismus). empirisch So die Bezeichnung für die Beschreibung eines Konzepts oder einer Überzeugung, die auf der Erfahrung basiert (auf dem Zeugnis der Sinne). Empirismus Die Ansicht, wonach alle Erkenntnis auf Sinneserfahrung beruht oder untrennbar damit verbunden ist.

Fatalismus Schicksalsgläubigkeit, die völlige Ergebenheit in die als unabänderlich hingenommene Macht des Schicksals. Französische Revolution Der Sturz der absoluten Monarchie in Frankreich, der zwischen 1789 und 1799 blutig eskalierte. Sie gilt bisweilen als die erste neuzeitliche Revolution, da sie die Natur der Gesellschaft verändert und radikale neue politische Ideologien eingeführt hat. Glorreiche Revolution Ersetzung des katholischen Stuartkönigs James II. auf dem englischen Thron durch seine protestantische Tochter Mary und deren Ehemann William. Der unblutige Wechsel von 1689 markierte das Ende des Absolutismus und den Beginn einer verfassungsmäßigen Regierung in England. Humanismus Jegliche Sichtweisen, nach denen menschlichen Angelegenheiten oberste Priorität zugestanden wird. Im Besonderen die Bewegung in der Renaissance, in der die menschliche Würde über religiöse Dogmen erhoben wird. Idealismus siehe Dualismus Immaterialismus siehe Dualismus Industrielle Revolution Die gesellschaftliche und wirtschaftliche Umwandlung der Agrargesellschaft in eine industrialisierte und urbanisierte Gesellschaft. Sie begann im 18. Jahrhundert in Großbritannien und war nacheinander angetrieben von der Entwicklung der Dampfkraft, der Fabrikproduktion und dem Bau der Eisenbahn. klassisch Der Begriff bezieht sich auf die Kultur, Kunst und Architek-

Glossar tur der griechisch-römischen Antike. In der (Newton’schen) Physik bezieht er sich auf vorhandene Theorien vor der Entwicklung der Relativitätstheorie und Quantenmechanik. Konsequenzialismus Philosophische Position innerhalb der Ethik, die Handlungen allein danach beurteilt, wie gut oder erstrebenswert ihre Folgen sind. kontingent Eine kontingente Wahrheit ist zufällig oder möglich wahr, aber nicht notwendigerweise. Im Gegensatz dazu hat eine notwendige Wahrheit absolute Gültigkeit; der Wahrheitswert gilt unter allen Umständen und in allen möglichen Welten. Libertarianismus Philosophische Position, wonach der Determinismus falsch ist und der Mensch in seinen Entscheidungen und Handlungen völlig frei. marxistisch Der Begriff bezieht sich auf die Lehren des deutschen Philosophen Karl Marx (1818–83), dem Gründer (zusammen mit Friedrich Engels) des modernen Kommunismus. Materialismus Die Neigung, materielle Besitztümer und physische Annehmlichkeiten über geistige Werte zu stellen; siehe auch „Dualismus“ Mechanik Teilbereich der Physik, der die Bewegung von Körpern unter dem Einfluss äußerer Kräfte oder Wechselwirkungen untersucht. mittelalterlich Der Begriff bezieht sich auf das Mittelalter, jene Periode in der europäischen Geschichte, die sich vom Fall des Römischen Reiches im 5. Jahrhundert bis zum Be-

ginn der Renaissance im 15. Jahrhundert erstreckt. Metaphysik Eine Grunddisziplin der Philosophie, die die Natur und Struktur der gesamten Wirklichkeit behandelt und sich insbesondere mit Begriffen wie Sein, Substanz und Kausalität befasst. modern Der Begriff bezieht sich auf die Periode der westlichen Geschichte, die (grob) vom 15. Jahrhundert bis in die heutige Zeit reicht; die Zeit davor, bis etwa 1800, wird bisweilen als „Frühmoderne“ bezeichnet. Naturalismus Innerhalb der Philosophie die Auffassung, dass alles (inklusive moralischer Konzepte) allein aus den „Tatsachen der Natur“, welche prinzipiell durch die Wissenschaft festgestellt, erklärt oder analysiert werden könne. In der Kunst ein Abbildungsstil, der Wert auf die Genauigkeit der Darstellung legt. newtonsch bezogen auf die Arbeit von Isaac Newton (1642–1727), und etwas allgemeiner auf die klassische Physik, siehe auch klassisch Objektivismus Philosophische Position innerhalb der Ethik und Ästhetik, wonach Werte und Eigenschaften wie Güte und Schönheit den Objekten inhärent (oder intrinsisch) sind und unabhängig von den Vorstellungen des Betrachters existieren. Physikalismus siehe Dualismus Pragmatismus In der Philosophie die Auffassung, dass Überzeugungen oder Prinzipien danach beurteilt werden sollten, wie erfolgreich sie in der Praxis sind.

Rationalismus Philosophische Position, wonach (manche) Erkenntnisse nicht mittels sinnlicher Erfahrung, sondern durch verstandesmäßiges (rationales) Denken erlangt werden können. Realismus Philosophische Position, wonach ethische und ästhetische Werte, mathematische Eigenschaften etc. in einer außerhalb unseres Bewusstseins liegenden Wirklichkeit existieren, unabhängig von unserer bekannten und erfahrbaren Welt. In der Kunst ein Stil, der versucht Menschen oder Dinge wirklichkeitsgetreu darzustellen. Reformation Religiöse Bewegung in Europa im 16. Jahrhundert, die Reformen in der katholischen Kirche forderte und zur Bildung der protestantischen Kirche führte. Renaissance Die „Wiedergeburt“ europäischer Kunst und Literatur in der Epoche vom 14. bis 16. Jahrhundert, inspiriert durch die Wiederentdeckung klassischer Traditionen. Subjektivismus Philosophische Position innerhalb der Ethik und Ästhetik, wonach Werte nicht in einer außerhalb unseres Bewusstseins liegenden Wirklichkeit wurzeln, sondern in unseren Überzeugungen über diese Wirklichkeit oder in unserer emotionalen Reaktion auf diese. transzendental Der Begriff verweist in ein geistiges oder nicht-körperliches Reich jenseits der sinnlichen Erfahrung Willensfreiheit siehe Determinismus

205

206

Index A Abraham und Isaak 69 Absolutismus 20, 26, 93, 204 Abstraktion 170 absurdes Theater 55 Abtreibung 74f, 81, 84 Adams, John 107, 128f, 131 Agnostizismus 76, 78 Alberti, Leon Battista 160–162 allgemeines Wahlrecht 106, 109 Al-Qaida 73, 148f, 151 Altruismus 16–19 Amerikanische Revolution 100, 102, 119, 129, 204 Apartheid 142 Aquin, Thomas von 8–11, 59, 87, 89 Aristoteles 8–11, 32, 67, 105, 106, 163, 170 Aristotelismus 8–11 Assimilation 122 Atheismus 76–80 Aufklärung 22, 24, 33, 75, 82, 106, 108, 165, 168, 177, 204 Augustinus von Hippo 63, 66, 68, 88, 90 Automatismus 173–175

B Beauvoir, Simone de 146 Behaviorismus 42f Bellamy, Edward 98 Bentham, Jeremy 38, 48–50, 102 Berkeley, George 33, 42 Berlin, Isaiah 19–20, 22 Bin Laden, Osama 148f, 151 Blair, Tony 83, 113 Blake, William 165, 167 Bohr, Niels 198f Böse, das 56–59, 63 Bostrom, Nick 28f Bradbury, Ray 178 Breton, André 172–175 Bryan, William Jennings 86f bürgerliche Freiheiten 23, 101 Burke Edmund 108–111 Bush, George W. 20, 23, 72, 113

C Calvin, John 63 Camus, Albert 53, 65 Carlyle, Thomas 167 Chaos 188–191 Chesterton, G. K. 62, 109 Christentum 10–11, 27, 56, 63, 71 Churchill, Winston Sir 104, 152 Churchland, Paul 40f Clinton, Bill 80 Crowther, Welles 16–17, 19

D Dada 170, 172f, 175 Dalí, Salvador 173f Darrow, Clarence 86 Darwin, Charles 18f, 99, 168, 180–183, 204 Darwin, Erasmus 181 Darwinismus 86 David, Jacques-Louis 163f Dawkins, Richard 69, 74, 87 de Broglie, Louis 198f de Chirico, Giorgio 175 de Tocqueville, Alexis 81, 114 Debord, Guy 159 Decatur, Stephen 116 Demokratie 22, 26, 72, 75, 83, 104–107, 113, 158 Descartes, René 30f, 33, 42, 66f Determinismus 61, 189, 198, 204 Differenzprinzip 127 Diggers, die 99 Dobzhansky, Theodosius 18, 183 Dogmatismus 11, 26, 29f, 75, 204 Domenichino 162 Doppeleffekt 94 Dschihad 148, 150 Dualismus 5, 42, 67, 204 Ducasse, Isidor (,Graf de Lautréamont‘) 172

E Einstein, Albert 116, 168, 192– 195, 197–201 Eisenhower, Dwight D. 89 Ekklesia 105 Eliot, T. S. 170 Emerson, Ralph Waldo 117f empirisch, Empirismus, empiristisch 31, 33–35, 69, 204 Engels, Friedrich 99, 132 Epiktet 62 Erklärung der Bürger- und Menschenrechte (1789) 22 Ernst, Max 175 Erster Weltkrieg 114, 138, 168 Eudaimonia 9 Eugenik 99 Europäische Union (EU) 82 Euthanasie 81, 94 Evolution 18f, 74, 79, 86, 180–183, 204 Existenzialismus 52–55

F Falwell, Jerry 75 Faschismus, Faschisten 89, 104, 118, 136–139 Feminismus 144–147 fraktale Geometrie 190 Franklin, Benjamin 177, 179 Französische Revolution (1789– 1799) 22f, 83, 90, 102, 108f, 118f, 166, 204 Freiheit 20–24, 140, 155 intellektuelle 23 positive/negative 21f

Freiheitsstatue, New York 22, 120 Freud, Sigmund 168, 174 Fry, Elizabeth 38 Fukuyama, Francis 157f Fundamentalismus 44, 72–75, 85, 149 Fünf Wege (Thomas von Aquin) 11 Funktionalismus 42f

G Gaia 184–187 Galapagos-Inseln 180 Galileo Galilei 178 Gänseblümchenwelt 186 Geist-Körper-Dualismus 42f, 67, 204 Gentile, Giovanni 136 gerechter Krieg 89–91 Géricault, Théodore 164f Gesellschaftsvertrag 124–127 Gladstone, William 101, 110 Glaube 68–71 Gleichheit 23, 140, 144–147 globale Klimaerwärmung 187 Globalisierung 156–159 Glorious Revolution, „Glorreiche Revolution“ (1689) 102, 131, 204 Goethe, Johann Wolfgang von 165 Goldene Regel, die 12–15 Goldman, Emma 146 Golfkrieg (1990–1991) 150 Gott und der Beginn der Zeit 202 göttliches Recht 20, 93 Greer, Germaine 147 Gropius, Walter 171 Gründerväter der USA 118, 128, 131 Gute, das 56–59

H Hamilton, Alexander 128f Hare, R. M. 15 Hawking, Stephen 202 Heidegger, Martin 53–55 Heisenberg, Werner 198f Heisenberg’sche Unschärferelation 198 Henry, Patrick 20 Herodot 45 Hill, Paul 74 Hitler, Adolf 113, 137, 139 Hobbes, Thomas 10, 17, 82, 101, 106, 110, 124–126 Hubble, Edwin 201 Hubble-Gesetz 201f Hume, David 17, 19, 29, 31, 33–34, 65, 71 Hussein, Saddam 151 Huxley, Aldous 99 Huxley, T. H. 78 hypothetischer Imperativ 94

I Ideen (platonische) 5–7, 66 Imperialismus 112–115, 138

Industrialisierung 109, 119, 135, 155 Industrielle Revolution 153, 204 Intelligentes Design 84, 87, 183 Internationale Moderne 171 IQ (Intelligenzquotient)-Test 143 Irakkrieg 84, 113, 150 Iran-Irak-Krieg (1980–88) 151 Islamische Front 148 Islamismus 148–151 Islamophobie 72 Israel 150

J Jefferson, Thomas 77, 81, 129, 179 Jesus 13, 15, 74, 133 Johannes Paul II., Papst 85 Johnson, Samuel 42, 178f Joyce, James 170

K Kaiser Augustus, 130, 163 Kallen, Horace 120 Kant, Immanuel 14, 23, 33–35, 93–95, 140f, 167 Kantianismus 14, 15 Kapitalismus 102, 135, 137, 152–155 Kategorischer Imperativ 14f, 34, 94f katholische Kirche 178 Kennedy, John F. 13, 20, 91, 103 Keynes, John Maynard 153 Keynesianer 153 Khomeini, Ayatollah 151 Kierkegaard, Søren 54 King, Martin, Luther Jr. 142 Kipling, Rudyard 115 Klassizismus 160–163, 165, 166f Kleisthenes 105 Klimawandel 187 Koestler, Arthur 88 Kommunismus 99, 109, 132–135, 205 Konsequenzialismus 48, 205 Konservatismus 100f, 108–111 Kopenhagener Interpretation 198 kosmische Hintergrundstrahlung 203 kosmologische Konstante 201 Kosmologisches Prinzip 203 Kraniometrie 143 Kreationismus, Kreationisten 74, 84–87, 183 Krieg 88–91 Krieg gegen den Terror 20, 23, 72, 113, 150 Kuhn, Thomas 46 kultureller Pluralismus 120f Kulturimperialismus 158f Kuwait 90

Index L Laissez-faire 154 Lawrence, D. H. 170, 176f Laws, Curtis Lee 74 Lazarus, Emma 120 Lenin, Wladimir 114, 132, 134 liberale Demokratien 22f, 44, 157 Liberalismus 100–103, 123, 157, 205 demokratischer 138 klassischer 101f, 131 säkularer 70 Lichtgeschwindigkeit 193–195 Lincoln, Abraham 20 Locke, John 22, 27, 33, 82, 101f, 106f, 124, 126 Lorenz, Edward 188–191 Lovelock, James 184–187 Luther, Martin 68f

M Machiavelli, Niccolò 114, 162 Macmillan, Harold, Earl of Stockton 113 Magritte, René 175 Malebranche, Nicolas 67 Mannheim, Karl 97 Mao Tse-tung 99, 132 Marx, Karl 78, 99, 132–135, 154f, 168, 205 Marxismus, Marxisten 114, 137f, 205 Materialismus 40–43, 205 Mathematik 35 Mathematik der Natur 161f Matrix, Mechanik 199 Maupassant, Guy de 176 Maxwell, James Clerk 193f Mazzini, Giuseppe 117 McLuhan, Marshall 156f, 159 Menschenrechte 20, 23, 26, 119, 140 Michelet, Jules 118 Michelson, Albert 193f Mill, James 107 Mill, John Stuart 15, 21, 23, 25, 50, 70, 89, 102, 105, 110, 115, 145, 165 Milton, John 178f Miró, Joan 175 Moderne 168–171 Monetaristen 153 Moral 14, 17, 18, 34, 44, 50, 56f, 95 More, Sir Thomas 96, 98 Morley, Edward 193f Morris, William 98 Multikulturalismus 120–123 multiple Realisierbarkeit 41f Mussolini, Benito 89, 114, 136, 138f

N Nationalismus 115–119, 136 Natur 11, 18, 31, 48, 161, 167, 170, 188 natürliche Selektion 18f, 87, 182f, 204

Nazismus, Nazis 57, 90, 99, 137 Neoklassizismus 163f, 166 Neoplatonisten 10f Neue Rechte, die 103 Newton, Sir Isaac 61, 189, 193, 197, 205 Newton’sche Mechanik 79, 193 Nietzsche, Friedrich 17–19, 54, 76f Nominalisten 6 Nozick, Robert 49

O Oppenheim, Meret 174 Orwell, George 99

P Paine, Thomas 128f Paley, William 87 Palin, Sarah 84 Pascal, Blaise 68, 77 Pascal’sche Wette 77 Patriotismus 116f Pazifismus 88f Penguin Books 176f Perikles 105 Pflicht 51, 92–95 Photoelektrischer Effekt 198 Picasso, Pablo 178 Piero della Francesca 161f Planck, Max 197–199 Platon 4–10, 32, 47, 57, 66f, 96, 98, 105f Platonische Liebe 7 Platonismus 4–7 Platons Höhle 6 Pope, Alexander 161, 163 Popper, Karl 96 positive Freiheit 21f Postmoderne 169 Poussin, Nicolas 162f Primo da Rivera, José Antonio 137f Protagoras 47 Putnam, Hilary 28–30 Pyrrhonismus 31 Pyrrhos von Elis 30 Pythagoras 32

Q Quantengravitation 201 Quantenmechanik 196–199 Qumran 63, 149

R Rassismus 140–143 Rationalismus, Rationalisten 10f, 32–34, 205 Rationalität 32–34, 65, 165 Rawls, John 124, 126f Reagan, Ronald 100f, 103, 111, 127, 133 Realismus 89, 161, 170, 205 Realisten (Platonisten) 6 Reformation 82, 205 Relativismus 44–47 Relativismus, wissenschaftlicher 46 Relativität 192–195, 197

Relativitätstheorie, Allgemeine 195, 200f Relativitätstheorie, Spezielle 193–195 religiöse Toleranz 26f Renaissance 82, 160, 205 Republikanismus 128–131 Robertson, Reverend Pat 72, 146 Robespierre, Maximilien 23, 130 Romantik 127, 161, 164–167 römisches Modell 129f Rosebery, Lord 115 Rousseau, Jean-Jacques 110, 124, 127, 167 Russell, Bertrand 69, 76, 78, 155 Russische Revolution (1917) 137 Ryle, Gilbert 66

Thatcher, Margaret, Baroness 103, 111, 127 Todesstrafe 37, 39 Toleranz 24–27, 46, 83 Totalitarismus 22, 99, 137 Treibhauseffekt 186 Tugendethik 8f

S

Vasari, Giorgio 161 Vernunft 32–35, 55, 68f Verteidigung der Willensfreiheit 58f Verwandtenselektion 19 Vorbestimmung 63

Säkularismus 75, 80–83 Sartre, Jean-Paul 52–55, 139 Schadensprinzip 21 Schelling, Friedrich von 166 Schicksal 60–63 Schmetterlingseffekt 190f Scholastik 9, 10 Schönberg, Arnold 171 Schrödinger, Erwin 197, 199 Schrödingers Katze 196f, 199 Schwarzkörperstrahlung 197f Schwulen- und Lesbenrechte 75, 84, 122 Scopes, John 86 Scott, Sir Walter 167 Seele 5, 64–67, 169 Selbstmordattentäter 74, 149 11. September 2001, Terroranschläge 16f, 23, 72f, 113, 148–150 Sharia 149 Shaw, George Bernard 178 Shelley, Percy Bysshe 165 Simulationsargument 28 Skeptizismus 28–31, 110 Sklaverei 20, 23, 45, 140, 145 Smith, Adam 102, 152–155 Sokrates 17, 29–30, 78, 110, 177f Sophokles 32 Sozialdarwinismus 98f, 182 Spencer, Herbert 182 Stalin, Joseph 22, 99, 132 Stammzellenforschung 81, 84 Stoizismus, Stoiker 62, 130 Strafe 36–39 Strawinsky, Igor 171 Substanzdualismus 66 Sun-tsu 91 Superstring-Theorie 201 Supervenienz 42 Surrealismus 170, 172–175

T Taliban 73, 149, 151 Tebbit-Test 123 Terrorismus 23, 148f

U Überleben des Stärkeren 182 Übermensch 54 Unabhängigkeitserklärung (1776) 22, 128 Universalisierbarkeit 15 Urknall 200–203 US-amerikanische Verfassung 80, 82, 87, 130, 179 Ussher, Erzbischoff James 85 Utilitarismus 38f, 48–51 Utopie 96–99

V

W weibliche Beschneidung 45, 122f Weißen Mannes Bürde 115 Wellenmechanik 199 Welle-Teilchen-Dualismus 199 Wells, H. G. 98, 131 West, Rebecca 145 Whitehead, Alfred North 4, 44 Wilde, Oscar 36, 97, 105, 177 Willensfreiheit 59, 61, 63, 95, 205 Wissenschaft und Rasse 142f wissenschaftliche Modelle 188f Wissenschaftliche Revolution 11, 30, 119, 204 Wollstonecraft, Mary 144–146 Wordsworth, William 108, 166f Wunder 71, 73

Z Zangwill, Israel 120f Zensur 81, 98, 176–179 Zusatzartikel der US-amerikanischen Verfassung 80f, 179

207

208 Titel der Originalausgabe: 50 Big Ideas You Really Need to Know Copyright © Ben Dupré 2010 Published by arrangement with Quercus Publishing PLC (UK) Wichtiger Hinweis für den Benutzer Der Verlag und der Autor haben alle Sorgfalt walten lassen, um vollständige und akkurate Informationen in diesem Buch zu publizieren. Der Verlag übernimmt weder Garantie noch die juristische Verantwortung oder irgendeine Haftung für die Nutzung dieser Informationen, für deren Wirtschaftlichkeit oder fehlerfreie Funktion für einen bestimmten Zweck. Der Verlag übernimmt keine Gewähr dafür, dass die beschriebenen Verfahren, Programme usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag hat sich bemüht, sämtliche Rechteinhaber von Abbildungen zu ermitteln. Sollte dem Verlag gegenüber dennoch der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar gezahlt.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Spektrum Akademischer Verlag Heidelberg 2012 Spektrum Akademischer Verlag ist ein Imprint von Springer 12 13 14 15 16

5 4 3 2 1

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Planung und Lektorat: Frank Wigger, Dr. Meike Barth Umschlaggestaltung: wsp design Werbeagentur GmbH, Heidelberg Titelbild: © Shutterstock ARCHITECTE® Redaktion: Dr. Christian Wolf Satz: TypoDesign Hecker, Leimen

ISBN 978-3-8274-2907-0

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF