Kein Leben nach dem Tod

Oder:
Warum man ein Arschloch sein darf
(Einige Überlegungen)

 

„Es gibt für Menschen, wie sie heute sind, nur eine radikale Neuigkeit – und das ist immer die gleiche: der Tod.“
Walter Benjamin

Seitdem wir es immer mehr verstehen, gut zu leben, ist die Frage nach einem Leben nach dem Tod etwas aus dem Fokus gerückt, wie eine schlechte Nachricht, die man aufgrund ihrer radikalen Endgültigkeit lieber erst sehr spät übermittelt bekommen möchte. Der existenzielle Druck, eine Antwort auf diese Frage formulieren zu müssen um die richtige Einstellung zum Leben zu finden, ist deutlich geringer geworden. Warum ist das so?

Alte Antwortmuster haben ihre Gültigkeit oder Verbindlichkeit für viele, oder auch ihre paradigmatische Kraft für die Auseinandersetzung über das Wesen Mensch generell eingebüßt. Gleichzeitig wird aber einerseits in traditionellen, zumeist religiösen Denkzirkeln und in Kreisen der new-age-Esoterik andererseits der Glaube an ein Leben nach dem Tod ‚immer noch‘ oder ‚schon wieder‘ wachgehalten. Sowohl fanatische Terroristen, die ihre Selbstopferung durch ihr paradiesisches Weiterleben gerechtfertigt sehen, als auch frühe Friedensbewegte, die über Drogenerfahrungen zu seltsam verklärten Visionen vom Sein nach dem Tode gekommen sind, haben gleichermaßen das Bedürfnis, die Tatsache der eigenen Sterblichkeit ins Reich der Phantasie zu verschieben.

Dieser Effekt verrät bei beiden, dass die je eigenen Selbst- und Weltverhältnisse auf schwachen Begriffen gründen. Dass mich das interessiert ist klar, denn schwache Begriffe sind für Philosophen immer schon dankbare Angriffsziele gewesen. Mit dem Angriff will man aber keine Träume zerstören, sondern schlecht gedachte, schlecht formulierte oder schlecht praktizierte Phantasien geraderücken, und sie – wenn sie denn zu retten sind – auf ein denkbares und lebbares Reflexionsniveau bringen, oder andernfalls zu klären, warum sie nicht zu retten sind und sie dann mit gebührendem Pomp zu verabschieden.

Mein eigener Tod interessiert mich nicht

Keineswegs ist klar, dass mein Leben und mein eigener Tod in einem so engen Zusammenhang stehen, wie das allgemein gedacht wird. Aus dem Brief an Menoikeus des antiken Philosophen Epikur stammt das in diesem Kontext häufig angeführte und damit fast schon missbrauchte Versatzstück, dass der eigene Tod einen nicht betreffe, „denn solange wir existieren, ist der Tod nicht da, und wenn der Tod da ist, existieren wir nicht mehr.“ Es besagt zunächst nichts anderes, als dass wir im und vor allem nach dem Moment unseres Todes über rein gar nichts mehr von dem verfügen, über das wir zu Lebzeiten mal verfügten. Unser Einflussbereich erstreckt sich auf keine unserer Lebensäußerungen und der uns einbegreifenden sozialen Tatsachen. Wir können nicht mehr handeln und nicht mehr handelnd Teil von Gruppen sein.

Unser eigener Tod gehört als Vorstellungsinhalt und damit als Quelle vieler Auseinandersetzungen zwar zu unserem Leben dazu, aber bereits im Moment seines Eintreffens verändert er die Grundlagen so sehr, dass er nicht mehr reflexiv eingeholt werden kann, weil wir nicht mehr reflektieren können. Reflektieren heißt aber nichts anderes, als ‚zurückwenden‘ oder ‚spiegeln‘, was schon der Wortbedeutung nach ein ‚Neben-sich-stehen‘ des Menschen erfordert. Man tritt als Wesen mit Bewusstsein bildlich gesprochen aus sich heraus und denkt darüber nach WIE man ist, WAS man tut, WIE man sich dabei fühlt, und vielleicht was man glaubt WIE andere sich dabei fühlen. Dem Prozess der Reflexion ist es dabei gegeben, mögliche Wirkung des eigenen Todes auf andere Menschen, die einem vielleicht nahe standen, vorwegzunehmen und durchzuspielen. Dabei kriegt man allerdings nichts über die wirkliche Wirkung heraus.

Die Frage an sich ist schon falsch formuliert

Um sich mehr bewusst zu werden, wo alleine die Formulierungsprobleme liegen, muss man sich den Unterschied der Konzepte „Zustand“ und „Ereignis“ verdeutlichen. Rede ich über den Tod als „Zustand“, dann meine ich eine Ewigkeitsspanne. Sobald man einmal kurzfristig gelebt hat, ist man durch den Tod praktisch für die Ewigkeit nicht mehr. Jeder von uns wird länger tot sein als er je gelebt hat. Damit verbindet sich eine kaum zu beantwortende Frage: Wie sieht es eigentlich mit dem ontologischen Status von Toten aus? Welchen Seins-Status kann man z.b. Menschen nach 1000 Jahren zusprechen, wenn die Länge ihres Totseins mit einem unwahrscheinlich großen Faktor die Länge ihres Gelebthabens übertrifft?

Rede ich vom Tod als „Ereignis“, dann meine ich eine relativ punktuelle, und zeitlich umgrenzbare Änderung, zunächst ein Aufhören von Vitalfunktionen, aber im Nachgang auch eine Vielzahl sozialer und kultureller Praktiken, mit denen der Verstorbene allen seinen Angehörigen, Freunden, Bekannten aber auch der Nachwelt offiziell als „dem Irdischen entzogen“ vorgestellt und sozusagen verabschiedet wird. Beerdigungszeremonielle leiten von dem ihnen vorausgehenden Ereignis des Sterbens in den ewigen Zustand des Totseins über. Manchmal sind sie die viel stärkere Zäsurs als das Sterben selbst.

Wenn man nur ein einziges Leben zur Verfügung habe, so hat sich der Schnack durchgesetzt, dass man es dann auch ‚gut‘ führen müsse. Ein voller Angst und Schmerzen rumgebrachtes und zu früh beendetes Leben, in dem man nie wirklich frei war, seine eigenen Entscheidungen zu treffen, habe sich dem Anschein nach gar nicht gelohnt und sei deshalb retrospektiv nicht führenswert gewesen und gerade deshalb lieber zeitiger vorbei als dass es sich noch unnötig in die Länge zieht. Die Tatsache, dass wir zu gerne aus Lebensumständen, praktizierten Lebensansichten und anderen Aspekte wie der Lebenszeitspanne uns ein Urteil darüber bilden, wie lebenswert ein Leben, genauer gesagt eine bestimmte Biographie ist oder war, nimmt Einfluss darauf, mit welcher Einstellung wir dieser Biographie am Ende den Tod beigesellen: Als Erlösung von kurzem heftigen Leid oder als bedauernswert frühen Abbruch einer Karriere, die noch vieles hoffen ließ.

Gutes Leben durch „Gutsein“? Am Arsch….

Zu einem ‚guten Leben‘ gehören viele Aspekte, die mitunter nach harter Arbeit klingen: Ich muss gesund sein, die Welt mit einer Mischung aus Vernunft, Herz und Humor sehen können, eine Ausbildung erfahren und einen Beruf ergreifen, der mir Spaß macht, zudem in einer Partnerschaft glücklich werden, etwas erreichen, viele Eindrücke sammeln und für das Alter vorsorgen. Wenn ich keinen Partner finde, lag das vielleicht daran, dass ich den potenziellen Zufallstreffer in der Bar neulich nicht sexy und lebensfroh genug angelächelt und eventuell auch angesprochen habe. Je länger unsere Lebensspannen werden, umso mehr Aufträge kommen auf die „Soll“-Seite. Unter dem Selbstrealisierungsdruck und der Komplexität leiden immer mehr Menschen, sie werden depressiv, ziehen sich zurück oder sie werden zynische Spielverderber, die sich darin inszenieren, die Lebenslügen der Mehrheitsgesellschaft zu demaskieren und den Kuschelkonsens bezüglich der Pflichterfüllungen anhand bürgerlicher Lebenspläne zu diskreditieren. Diese Pflichterfüllung nimmt dabei oftmals die Endlichkeit des Lebens in den Blick und definiert allgemeingültige Lebensziele für das irdische Leben.

Wer zu rücksichtslos sein eigenes Ding macht und ein Leben nach wirklich selbstgewählten Maßstäben führt, wird oft als „Arschloch“ betrachtet. Arschlöcher können kein gutes Leben führen, so glaubt man gerne. Aber dennoch ertappt man sich dabei zu beneiden, wie souverän, stark und unberührbar sich Arschlöcher zu Lebzeiten nehmen, was vielen verwehrt bleibt. Wer sich in Zurückhaltung übt und alles, was ihn strukturell benachteiligt individualisiert, verkehrt Täter und Opfer und spürt einen mitunter enormen Lebensdruck, ohne dass sich dieser dauerhaft mit Lebensfreude paaren kann. Und wenn einem dann ein prototypisches Arschloch über den Weg läuft, ist man erstaunt („Darf der das überhaupt?“), verärgert („Das darf der doch gar nicht!“) oder traurig („Der darf das und ich nicht, weil ich ein guter Mensch sein will.“)

Wenn ich nur dieses eine Leben habe und danach wirklich absolut nichts mehr kommt, darf ich dann nicht auch ein Arschloch sein? Oder besser: Sollte ich dann nicht ein Arschloch sein, damit ich auch das kriege, was ich will und brauche? Von Bertold Brecht stammt das bekannte Bonmot „Sorgt doch, dass ihr, die Welt verlassend, nicht nur gut wart, sondern verlasst eine gute Welt.“ Es ist ein gängiger Fehlschluss, dass die ‚gute Welt‘ wirklich so gar keinen Platz für Kultivierungen des „Arschlochseins“ hat und dass sie andernfalls schlechter würde. Inwiefern das neu zu denken ist, muss noch geklärt werden. Keine Angst, dieser Text wird keine Rückbesinnung auf den psychologischen Egoismus Hobbes’scher Natur. Er versucht nur Differenzierungen einzubringen, wo noch viele weiße Flecken das Bild beherrschen.

Es gibt kein Leben nach dem Tod. Durch Analyse der Begrifflichkeiten, was es heißt ‚zu sterben‘, kann man den überzeugten Anhängern von Jenseits-Phantasien nachweisen, dass sie einen zu schwachen Begriff des Todes haben. Wer auf Basis gewisser irdischer Voraussetzungen auf die Diagnostizierbarkeit eines Zustandes wettet, der mit der kompletten Änderung jener Voraussetzungen verbunden sein muss, um überhaupt einen Unterschied zu bedeuten, der hat sich nicht damit abgefunden, was der Tod eigentlich bedeutet. Ich kann wissen, dass es ein Leben vor dem Tod gibt. Dass es eines nach dem Tod gibt, kann ich nur glauben.

Was heißt es überhaupt, zu sterben?

Was aber heißt es zu sterben? Ich müsste meiner eigenen Beerdigung bewusst beiwohnen können und wahrnehmen können, welche Vorkehrungen man zur rituellen Verabschiedung meines Körpers im irdischen Bereich trifft. Dazu bräuchte ich eigentlich das lebendige Instrumentarium eines Körpers: Augen, Ohren, die Bedingung, auf der Erde anwesend zu sein. Und vor allem bräuchte ich ein kontinuierliches Bewusstsein. Dies ist nur unter der Annahme möglich, dass es etwas wie eine Seele gibt. Viele Sterbeforscher und Wissenschaftler, die Nahtoderfahrungen analysieren, glauben, Beweise für die Seele gefunden zu haben, ‚wissen‘ können sie es aber nicht und meines Erachtens lassen sich diese zum Beispiel anhand von sogenannten außerkörperlichen Erfahrungen gewonnenen Eindrücke von der vermeintlichen Existenz der Seele gut widerlegen. Das hat bisher niemand systematisch getan.

Die Außerkörperlichkeit ist ein Gehirn-Artefakt. Grundsätzlich hat sie mit der menschlichen Fähigkeit zur Reflexion, Phantasie und autonomer Bild-Erschaffung zu tun, die in der exzentrischen Positionalität (dazu Helmut Plessner) wurzelt. Dass Sterbeforscher über Interviews auf so etwas wie Außerkörperlichkeit schließen wollen, ist seltsam: sie verlassen sich auf Erfahrungsberichte von Menschen, die fast tot waren, aber nicht wirklich hirntot sein konnten, weil sie sonst weder erneut wach werden noch über eine Bewusstseinskontinutität verfügen könnten, mit der sie sich im wieder erwachten Zustand die Erlebnisse des Todes als eigene Erlebnisse zuschreiben könnten. Das heißt, Bedingung für diese Form Erlebnisbericht-basierter Sterbeforschung ist, dass die Probanden eben NICHT sterben.

Ihre Gehirne zeigen Aktivität, selbst wenn es diese Aktivität in einem für uns nicht oder nur kaum physikalisch wahrnehmbaren Level zeigt, heißt das nicht, dass diese Aktivität nicht noch bildliche, akustische Eindrucksartefakte erzeugt, die viel eher aus der bisher weitgehend unverstandenen Kreativleistung des Gehirns kommen, als aus der wirklichen Ansicht einer den lebenden verborgenen Welt – ob nun Himmel oder Hölle. Zudem wollen Nahtodforscher die Außerkörperlichkeit immer durch die Erzählung von „Seheindrücken“ der Probanden bestätigt haben. Das mit dem Sehen kann so seine Schwierigkeiten haben (das zeigen Experimente mit Wahrnehmungskategorien, Gestaltgesetzen, Blinden, usw). Wir haben offensichtlich noch nicht genügend verstanden, warum das Gehirn im niedrigen Energielevel uns immer noch Bildergeschichten erzählt, die aber keine von Objektivität zeugenden Verarbeitungen unmittelbarer Sinneseindrücke sind.Und wir haben noch nicht den Wirklichkeit-gestaltenden Sinn von „Erzählungen im Nachhinein“ begriffen.

Ereignisse vor dem Tod haben nichts mit dem Tod zu tun

Soziologen und Mediziner beschäftigen sich mit dem Nahtod als „Erlebnis“, also mit Vorereignissen des Todes. Damit ist überhaupt nichts herauszufinden über die wirkliche Beschaffenheit des Lebens nach dem Ereignis, das nach den nahtodischen Vorereignissen kommen solle. Die Nahtoderfahrung ist eine reine Schau von Vorstellungsinhalten. Soziologen haben nachgewiesen, dass die Arten der Bilder, die mit ihnen verknüpften Gefühle, kultur- und sozialisationsabhängig sind. Das hieße aber auch, dass die Nahtoderfahrungen umso positiver sind, je mehr Menschen starke weltanschauliche Verankerungen in religiösen Paradgimen haben, die es zur Aufgabe haben, psychischen Schutz gegen die Angst vor dem Sterben bereitzustellen, also gegen die Furcht vor dem Erhabenen zu immunisieren, und dies u.a. mittels ausgeschmückten Weiterlebensideen erreichen.

In einer Welt der schleichenden Säkularisierung ließe sich damit die Tendenz beschreiben, dass uns in Zukunft mehr und mehr Nahtoderfahrungen mit nicht positiv belegten oder zunehmend neutralen Bilderschauen und Visionen konfrontieren. Mit anderen Worte: Wenn man meint, dass man dort etwas über wirkliche und allgemeingültige Lebensbedingungen nach dem Tod herauskriegen würde, dann müsste man mit dem Paradoxon leben, dass sich dieses verlässlich gleiche „Leben danach“ im selben Schrittmaß wandelt wie sich die Einstellungen der Menschen zu sich und zur Welt ändern. Mit dieser Änderungskorellation ließe sich jetzt schon eines gewiss sagen: Dieses Leben danach hätte verdammt viel mit dem davor gemein. Was wir vor dem Tod zu sehen kriegen, erzählt von unserem Leben, nicht von dem, was wirklich kommt, sondern von dem, was wir zu Lebzeiten durch kulturelle Dressur als das kommende zu begreifen, zu erhoffen oder zu wünschen gelernt haben. Zudem sehen wir eine Drogen-Vision: Körper-eigene Drogen befeuern die Bilderschau. Es ist ein evolutionärer Vorteil, dass ein sterbender Körper sich aus Schmerzlinderungsgründen mit eigenen Glücklichmachern vollpumpt, die ähnlich wie synthetische Drogen die Wahrnehmung außer Kontrolle bringen. Niemand aber käme auf die verrückte Idee, Menschen nach einem LSD-Trip nach einer objektiven anderen Welt zu befragen, die sie gesehen haben und für die sie nur gültig auskunftsfähig wären, wenn sie nachweisbar kontinuierlich klar bei Sinnen gewesen wären.

Ethik adé, wir sterben!

Wenn es also kein Leben nach dem Tod gibt, bedeutet das dann, dass ein argumentativer Anker für irdische Ethiken wegfällt? In vielen Kulturen und alten Glaubensparadigmen erscheint der Tod als Bilanzmoment für das Leben. Da man individuell stirbt, wird Gutes und Schlechtes im Leben in einer individualisierten Rechnung gegenüber gestellt und jenachdem das ‚Weiterleben‘ als Belohnung oder Bestrafung eingerichtet. Es gibt ja aber kein Leben nach dem Tod. Rächt es sich also nicht einmal mehr ‚letztinstanzlich‘, wenn man zu Lebzeiten ein Arschloch war?

Ich kann mir gut vorstellen, dass nicht wenige in dieser Vorstellung, es gäbe kein Leben nach dem Tod, eine große Gefahr sehen: eine Bedrohung für die Ethik, für das gute Leben, für internationale und generationelle Solidarität, einen Freibrief für Rücksichtslosigkeit und religiöse Unruhe. Aber nein, diese Gefahr sehe ich entschieden nicht. Wie viele Selbstmordattentäter werden deshalb zu Arschlöchern, eben weil sie an ein Leben nach dem Tod glauben? Damit wäre die Vorstellung hinfällig, das Jenseits gebiete erbarmungslos über eine bestimmte Form irdischer Ethik. Wenn das Jenseits dies nicht kann, kann es eine neue Diesseits-Fokussierung vielleicht eher. Also: Ob man aus der neugewonnenen Gewissheit, dass der Tod kein überirdischer Bilanzmoment ist, die Freiheit ableitet, sich unterirdisch gegenüber anderen Menschen verhalten zu dürfen, ist jedem selbst überlassen. Faktisch rückt aber die Beurteilung aber, ob man ein guter Mensch ist oder nicht, in die Sphäre zurück, in die sie gehört und in der diese Beurteilungen überhaupt nur Sinn ergeben: in den Bereich, wo lebenden Menschen ein unmittelbares Verhältnis in sozialen Bindungen miteinander eingehen und in einer Welt leben und eine Welt gestalten, in der viele vor ihnen waren, viele mit ihnen sind und noch sehr viele nach ihnen sein werden.

Wir müssen zur Klärung guter Argumente für ein gutes Leben die Vorstellung von einem Leben nach dem Tod überwinden. Alles was nicht notwendig ist, ist entweder Glaubensluxus oder Ansichtssache. Man kann ohne Seele leben und trotzdem ein guter Mensch und kein anderer Mensch sein als der, der man ist. Man kann ein guter Mensch sein ohne dass man dazu zu glauben, gut sein müsse man nur, weil es sich irgendwann auszahlt, wenn im Moment des Todes darüber entschieden werden könnte, dass man sein Leben niemals mehr verlieren muss. Man kann ein guter aber schwer kranker Mensch sein, der sich aufgrund der Schmerzen wünscht, einfach nur zu sterben um erlöst zu sein. Aber selbst der Begriff der Erlösung hört durch den Tod auf, Sinn zu machen. Der Zustand der Erlösung – also das Erleichtertsein von wirklichen Qualen – setzt in dialektischer Sicht ein Subjekt voraus, das diese Erlösung spürt, reflektiert und die Erlösungsgewissheit verkörpern kann. Wann immer wir im Kontext mit Verstorbenen von Erlösung sprechen, verwalten wir leidiglich ein christliches Sprachspiel, von dem nur wir (Über)Lebenden etwas haben. Die Vorstellung, dass es so etwas wie Erlösung geben kann, ist ungemein tröstlich. Aus geistig-immunologischen Gründen halten wir auch an diesem schwachen Begriff fest.

Zwar wurde es mancherorts Jahrtausende lang gepredigt, aber: Das Leben nach dem Tod kann und sollte für Menschen nicht als die Erlösung zum Guten erscheinen. Wer das nämlich zu intensiv glaubt, wird zu Lebzeiten eher ein echtes Arschloch, als diejenigen, die nur deshalb als Arschlöcher erscheinen, weil ihnen das Leben irgendwie leichter von der Hand zu gehen scheint und denen die Lebenszuversicht praktisch genügend Fassung vor der Sterblichkeitsgewissheit gewährt. Menschen, denen es im Leben gut geht, sind weniger dazu gezwungen, auf das erlösende Paradies, höhere Gerechtigkeit oder nachholende Usurpation zu hoffen.

Und wo spricht man noch vom „Leben“?

Ebenfalls zur Schärfung und Pointierung des Themen-Überhangs empfiehlt sich, den Begriff des Lebens besonders in seinen „Bindestrich-Varianten“ metaphorisch aufzufassen und auf einzelne Phasen eines einzelnen Lebens zu beziehen. Vielleicht lassen sich daraus Muster der Perspektivierung von „endenden Phasen“ gewinnen. Im heutigen Erwerbsleben gibt mancheiner seine körperlich und geistig aktivsten Lebensjahre hin für die heteronomen Zwecke einer mitunter schlecht bezahlten Erwerbsarbeit. Sicher kehrt auch das sich langsam um und die Erwerbsbiographien werden immer offener, aber noch immer ist ein übertriebener Lebensarbeitszeit-Realismus weit verbreitet: Gute Lebenszeit in der Rente verdient man sich durch effiziente Arbeitszeit davor. Es gibt also ein Leben nach dem Arbeitsleben, das je nachdem wie die Arbeit empfunden wurde, als eine Bestrafung oder Erlösung erlebt werden kann. Bei der Aussicht auf das Ende des Arbeitslebens, des Liebenslebens oder zum Beispiel bei der Bedrohung des Privatlebens geht es um für die Identitätsbildung relevante Antizipationen von Grenzerfahrungen und deren Bewältigung noch bevor das wirkliche Ende der jeweiligen Phase eintritt. Die Strategien dieser Bewältigung von Grenzerfahrungen können unterschiedlich ‚lebensklug‘ oder unterschiedlich ‚lebenspraktisch‘ sein und damit unterschiedlich tauglich für eine wirkliche Bewältigung existenzieller Lebensthemen. Wenn sich rausstellt, dass eine der Strategien, mit der Angst vor dem Verlust des Privatlebens umzugehen zum Beispiel ist, eine Art „öffentlichkeitsscheues Arschloch“ zu werden, dann ließen sich so definitiv Beurteilungsmuster gewinnen. Ähnlich verhält es sich mit der ethischen Gestaltung meines Lebens je nachdem ob ich den Tod als endgültiges Ende oder als Vorstufe zum Weiterleben ‚denke‘ und jeweils unterschiedliches daraus ableite.

Advertisements

Philosophisches Schreiben lernen

Aspekte der Lehr- und Lernpraxis philosophischen Schreibens in der Propädeutik

 

 

Grundprobleme in der Schreibkompetenz

Der lineare Verlauf eines Textes – seine Chronologie – zwingt den philosophisch Schreibenden zu einer besonderen Sorgfalt bei der Kohärenzherstellung auf der Wort-, Wortgruppen-, Satz-, Absatz- und Volltextebene. In kaum einer anderen akademischen Fachdisziplin wird das häufige und teilweise grundlegende Misslingen von Darstellungsverläufen auf formaler und inhaltlicher Ebene so augenfällig wie in Texten von Studienanfängern der Philosophie, und daher ebenso häufig von Dozierenden beklagt. Der Unmut resultiert daraus, dass es vielen Studierenden nicht gelingt, in kohärenter und verstehbarer Weise nieder zu schreiben, was sie zu sagen vorhatten. Nur wenn sie dies aber könnten, kann überhaupt beurteilbar werden, was sie philosophisch zu sagen haben. Bei wiederholt unzureichenden Schreibprodukten wird sicher bald die Option der sogenannten Abbruch-Beratung erwogen, denn ein Philosophiestudium muss an mangelnder Sprachbeherrschung scheitern können. Wenn es sich aber um ein zwar grundsätzliches aber durch Lernaufwand in gewissen Graden behebbares Problem handelt, dann lohnt ein Blick darauf, dass Philosophische Institute in ihren Propädeutik-Modulen das Schreiben thematisieren und praktizieren lassen sollten: Nicht nur als Propädeutik sondern als Daseinsvorsorge einerseits für eine Disziplin und andererseits für die Schreibpraxis vieler Köpfe, die mit oder ohne Abschluss die Gesellschaft prägen und prägen werden.

Gut und leicht schreiben ist schwer. Dabei ist Schreiben eine keinesfalls abgehobene soziale Praxis, bei der wir die Technik beherrschen müssen, dasjenige, was wir mit dem Geschriebenen bewirken wollen, auch bewirken zu können, indem wir adäquat schreiben. Die jeweilige Textsorte – und damit gemeint ist die Folie der an diese Textsorte berechtigterweise zu stellenden Erwartungen – gibt an, welcher Zweck mit dem Schreibhandeln verfolgt werden soll, und welche Kriterien dazu einzuhalten sind. Das Gute daran ist: Es gibt diese Kriterien und sie sind begreifbar und erlernbar (bis auf die Formate, deren Kriterien sich teilweise noch in Aushandlung befinden, etwa wie ein guter Blog-Artikel auszusehen hat). Damit sich dieses Wissen zu praktischen Kompetenzen des Schreibhandelns verfestigt, müssen Textproduktionswissen und Textsortenwissen um die Komponente der Selbstbeobachtung erweitert werden und in lange währender, tätiger Praxis des Schreibens mit Erfahrung angereichert werden. Die bei Studierenden oft zu konstatierende mangelhafte Disziplin wird dabei nicht in jedem Falle durch geschickte Motivation zu beseitigen sein, aber interessierte und motivierte Studierende erhalten so ein Angebot, von dem sie regen Gebrauch machen, umso mehr sie sich der Notwendigkeit souveränen Schreibhandelns im Laufe des Studiums bewusst werden.

Mit dieser Notwendigkeit sehen sie sich mindestens durch die erste Hausarbeit konfrontiert. Ein Text, der wie die universitäre Hausarbeit mit einem klar formulierbaren und auch formulierten wissenschaftlichen Anliegen versehen ist, wartet in der Regel mit einer starken Reflexivität auf: Er muss für die Realität der eigenen Darstellungschronologie angemessene Auskünfte darüber enthalten, warum er was und wie tut. Die Darstellungschronologie betrifft zunächst mehr die Makro-Struktur. Philosophischen Wert und damit Benotbarkeit als ganzes erhält ein so funktionaler Text aus seinem durch eine Leitfrage gestützten Engagement in einem Thema, das eine Fazit-ermöglichende Feldbearbeitung voranbringt.

Ergebnisse der Feldbearbeitung, die der Entscheidungsunlust vorschub leisten und Beliebiges je nach Gusto folgern lassen können, brauchen nicht durch einen langen, mit viel Aufwand gestrickten Darstellungsgang vorbereitet werden: Beliebiges folgern kann man auch aus ‚nichts‘. Für Zwischenmoderationen im Darstellungsverlauf sowie für Titel- und Teilüberschriften gilt das Prinzip der Ankündigungsehrlichkeit: Sie müssen in einer guten Reihenfolge adäquat beschreiben, was im Text oder Textabschnitt passieren wird oder worum es gehen wird. Die von mir in vielen Schreibresultaten (auch bei kompetenteren Schreibern) beobachtete Inkohärenz ist auch ein Phänomen davon, dass entweder prospektiv nichts für den Darstellungsverlauf angekündigt wird: So kann man allerdings den Fortgang des Text in alle möglichen Richtungen offenhalten und sich in Nebensächlichkeiten verlieren, oder dass Ankündigungen nicht eingelöst werden: Auch so wird ein roter Faden nicht herzustellen sein, ohne dass behauptetes und wirkliches Vorgehen eine massive Diskrepanz aufweisen.  Ein solches makrostrukturelles Vorgehen, das diese Inkohärenzen vermeiden kann, halte ich insgesamt am Beispiel des Schreibens einer (und mehrerer) Hausarbeiten im Verlauf des Studiums für durchaus erlernbar, mit anderen Worten: Man muss Studierenden zumuten und zutrauen können, diese Kompetenz in angemessener Zeit erwerben zu können, und dazu leisten Schreibwerkstätten an philosophischen Instituten meines Erachtens einen wichtigen Beitrag.

Gestaltungskriterien

Die Bemerkung, dass ein (zumal ein über sein eigenes Vorgehen aufklärender) Text (egal welcher Sorte) Kohärenz aufweisen muss um ‚gut‘ im Sinne von ‚seinem eigenen Anliegen gerecht werdend‘ ist, beinhaltet – neben den verschiedenen Ebenen von der Wortwahl-Ebene bis zum vollen Text – die drei eigentlichen Geltungsbereiche der Kohärenz: 1.) Die formale Gestaltung, das meint den Bogen von der Textgestalt bis hin zu den auf der Wortebene greifenden morphosyntaktischen Normen; 2.) Die stilistische Gestaltung, denn idealerweise sollte aus der Hand ein und desselben Schreibers ein kohärenter Stil kommen, der ohne Brüche auskommt und der nicht zu Stil-Imitationen der Quellen-Autoren neigt (denn das wäre ein schlechtes Zeichen für den ‚eigenen‘ Stil, die ‚eigene‘ Lektürearbeit); 3.) Die inhaltliche Gestaltung, das meint Sinn und Verstehbarkeit, die durch die formal korrekte, stilsicher durchgehaltene inhaltliche Aufbereitung und Verbindung von Gedanken und Aussagen bewirkt werden sollen. Dazu gehört auch das gute Zeitmanagement, zu dem ich meine Studierenden immer ermutigt habe. Das Schreiben eines Textes umfasst sowohl bei top-down-Schreibern (von Strukturplan zum Text) als auch bei bottom-up-Schreibern (vom frei experimentierenden Schreiben zum Text) Phasen von Planung, Niederschrift und Korrektur (nötigenfalls einer zweiten Korrektur).

Leseschwächen

Neben der Motivation, der Einsicht in den Zweck, dem Interesse ergibt sich bei der in der Planungsphase wichtigen Lektüre oft ein Problem: Die Wiedergabe und Darstellung von Close-Reading-Ergebnissen. Dies hat nicht zwingend mit mangelnden Reproduktionsfähigkeiten zu tun, sondern oft mit Desinteresse an grundständiger Lektüre. Wo beides in Kombination auftritt und die Ergebnisse dann aber tragende Säulen in einem Text werden sollen, entsteht mit hoher Wahrscheinlichkeit ein inkohärentes und zudem spannungsarmes Textprodukt, an dem sich aufgrund der Vielzahl von Baustellen eigentlich nicht einmal mehr zu arbeiten und zu korrigieren lohnt. Ich meine, dass daher im universitären Rahmen auch versucht werden muss, den Fokus verstärkt auf Lesekompetenz und die Fähigkeit zu legen, die Struktur und die wichtigsten Informationen gerade komplexerer Textauszüge ausfindig machen zu können.

Informationsstruktur und Grammatik

Grafik
* ‚Neuigkeitswert‘ der Information
** Informationsvergabe-Verlauf (Chronologie)

Die obige Grafik soll eines verbildlichen: ein Satz besteht im mindesten aus den Grundkomponenten Subjekt, Prädikat und Objekt, und die später im Satz gelieferte Information ist vom Informationswert höherwertiger als die vorherige. Der nächste Satz verfährt meist so, dass er die letzte Information im korrekten Bezug wieder aufgreift und spezifiziert, durch eine weitere, neuwertigere Information. Denkbar ist ein kurzes Textbeispiel wie das folgende, das aus drei unmittelbar aneinander anschließenden Sätzen besteht:

Satz 1: „Werte sind moralische, politische oder traditionelle Sollensnormen.“ Satz 2: „Sollensnormen sind geprägte, wechselseitige Erwartungen von Interaktionspartnern aneinander.“ Satz 3: „Diese Erwartungen können erfüllt oder enttäuscht werden.“ (Inspiriert durch Detlef Horster)

Die neueste Information des vorhergehenden Satzes, wird zur Basis des folgenden. Denkbar ist, dass sich der vierte Satz dann damit beschäftigt, was es heißt, zu ‚erfüllen‘ oder zu ‚enttäuschen‘, oder aber es wird ein Rückgriff auf den Grundbegriff des „Wertes“ vorgenommen. Sicher: Ein Absatz- oder Textbau, der immer nach diesem Schema verfährt, ermüdet auch, weil es kaum mehr spielerische Freiheit im Formulierungsgeschehen gibt. Das ist das eine Extrem. Das andere Extrem ist, wenn das problematische Bedürfnis, inhaltliche Schwächen durch eine experimentelle Syntax wenigstens noch zu einem gefühlt philosophischen Duktus umzuarbeiten, zu oft – auch aus Gründen des Überblicksverlustes – mit den Regelformen von Informationsvergabeanschlüssen bricht. Dann wird unklar, was sich worauf bezieht und die fehlenden oder fehlerhaften Satzüberhänge machen den Text schwer lesbar. Die Vorschrift, um zu Kohärenz und Struktur zu kommen, lautet: Zusammenhang dadurch herstellen, dass man sich selbst genau dabei zuhört, was man schon mal gesagt hat, um strukturbildend darauf zurückgreifen zu können. Nur wer im eigenen Text genügend orientiert ist, vermag dies zweifelsfrei, muss dann aber auch genügend kritischen Abstand zum eigenen Wortlaut finden, um seine eigenen Probleme überhaupt ‚sehen‘ zu können. Mein Selbstverständnis war es, die Studierenden zu einer Urteilskraft, was ein guter Text ist, zu befähigen, damit sie selbstkritisch bei eigenen Schreibprodukten diese Urteilskraft anwenden; dass sie das textanalytische Instrumentarium, das man für das Nachzeichnen von Textstruktur braucht, kennen, von dem Rezeptions- auf den Produktionsprozess wenden und es für die eigene Textproduktion fruchtbar machen können. Da Textanalyse in der Regel ein gerüttelt Maß an Lektüre voraussetzt, muss man wissen, wie es die „Großen“ machen.

Grammatik und Bedeutung

Ich habe einmal mich für das Schreiben eines Essays unter einem vorgegebenen Thema entschieden. Die Leitfrage sollte lauten „Soll es eine Menschheit geben?“  Positiv war, den Zeitpunkt für diese Schreibaufgabe sehr weit nach vorne in die Sitzungszeit zu verlagern, denn die Erfahrung sagt, dass gegen Ende des Semesters gerne mal die eine oder andere Sitzungsteilnahme anderen Prioritäten Platz machen muss, und dass aber derjenige, der schonmal eine größere Schreibleistung erbracht hat, allein deswegen, weil er dieses Investment gerechtfertigt sehen will, bis zum Schluss am Ball bleibt. Daher habe ich nahezu von allen Studierenden, die der ersten Sitzung beigewohnt haben, einen Essay erhalten. Auf den ersten Blick möchte man sagen, die Ergebnisse sind so disparat wie die unterschiedlichen Typen von Schreibern. Die Frage ist auch nicht ganz leicht oder eindeutig zu beantworten, das war zumindest der Plan. Denn auf den zweiten Blick liegen die Ergebnisse inhaltlich gar nicht so weit auseinander. Worum es mir ging, war, eine Vergleichbarkeit von Ergebnissen herzustellen, indem das Thema dasselbe bleibt. Aus früheren Lektüren von Hausarbeiten einiger Studienkollegen ist mir im Gedächtnis geblieben, wie sehr das Reden über Themen, die die „Menschheit“ oder „den Menschen“ betreffen, dazu geeignet sind, zu misslingenden Anschlüssen zu verleiten, und inhaltlich zu übers Ziel hinausschießenden Spekulationen. Diese Maschinerie wollte ich bewusst anfeuern, um zu gucken, inwieweit die Studierenden über Techniken verfügen, das was zum Überschwang neigt, auf niedriger Flamme zu köcheln.
Ich sagte schon, dass ein Text nur gut/gut lesbar ist, wenn er kohärent ist. Diese wird auch durch Verbindungswörter (oder ‚Konnektoren‘, wie ich sie auch nenne) gewährleistet. Gängigerweise sind das Konjunktionen (und, oder, sodass, obwohl, indem, sobald), Präpositionen (oft mit Pronomen o.a.: anhand, anstatt, infolge, zufolge) und Pronomen (Relativpronomen: der, die, das; Deiktische Pronomen: dieser, jener; Personalpronomen: er, sie, es + impersonales ‚es‘; Possessivpronomen: dessen, deren usw). Umso klarer man benennen will, warum nicht wenige der Essays zu dem vorgegebenen Thema zu vorhersehbaren Ungenauigkeiten  führten, die viele ihrer zentralen Aussagen unverständlich werden ließen, umso mehr muss man sich den Zusammenhang von Grammatik und Bedeutung vor Augen führen.

Die Begriffe, auf die alle Aussagen zu „Soll es eine Menschheit geben“ bezogen wurden, waren in allen Essays die in der folgenden Tabelle stehenden Begriffe I-IV. Keiner ist das Thema wirklich sprachanalytisch angegangen und hat zum Beispiel „die Menschheit“ auseinandergenommen oder abgeklopft ob das „eine“ vielmehr numerisch als indefinit zu verstehen sei, und wenn nicht, welche Konsequenzen dies haben könne. Im Wesentlichen kreisten die Ergebnisse um das, was Karim Akerma „Anthropodizée“ nennen würde, nämlich die Frage, inwiefern das von Menschen geschaffene Leid auf der Welt mit dem Fortbestehenkönnen der Menschheit zu vereinbaren ist. Die vier Wortgruppen „der Mensch“, „ein Mensch“, „die Menschen“ und „die Menschheit“ haben klar benennbare grammatische Numeri. Werden aber von schwächeren Schreibern in manchmal völlig frei fluktuierenden möglichen semantischen Numeri verwendet, die zu größeren Unschärfen führen.

Artikel Abstraktum grammatischer Numerus mögl. semantische Numeri:

I der Mensch Singular Singular/Plural
II ein Mensch Singular Singular
III die Menschen Plural Plural
IV die Menschheit  Singular Singular/Plural

 

Bezugsprobleme entstehen, wenn die begriffliche Unterscheidung zwischen I bis IV nicht konsistent ist, sie quasi-synonym verwendet werden, ohne dass die Bezugnahme mittels Konnektoren sich an den korrekten grammatischen Numerus oder die semantisch mögliche relative Numeralität des Numerus anlehnen kann. Redet jemand von dem Konzept, das sich hinter „die Menschheit“ verbirgt – nämlich der Einheit von Vielen, die als Einheit aber eben nicht mehr plural gedacht werden kann – so liest man in schlechteren Hausarbeiten sich durch ganze Textabschnitte ziehende Kohärenzfehler folgender Art:

[A] „Der Menschheit geht es nicht so wie anderen Kollektiven von Lebewesen: Sie können sich nicht einfach auf ihre Instinkte verlassen.“

 

Der Fehler in Beispiel [A] liegt darin, dass der Numerus  von „können“ nicht an den grammatischen Numerus Singular von „Menschheit“ anschließt. Das Ergebnis ist, dass der Rückbezug, der durch das Personalpronomen „Sie“ angezeigt wird, sich eigentlich nur auf den Plural der „Kollektive von Lebewesen“ beziehen kann, wobei dann behauptet würde, diese nicht-menschlichen Lebewesen könnten sich nicht auf ihre Instinkte verlassen. Gerade dies wollte der Schreiber aber eben nicht behaupten, sondern (und das ist peinlich): Das Gegenteil.

Ausblick

Die hier besprochenen Aspekte sind sozusagen ‚typisch‘, sind treten als Spezifitäten der „Nicht umfänglichen Beherrschung von Hochsprache“ ziemlich häufig auf, und die Tatsache, dass sie Missverständlichkeit befördern, wird gerade im akademischen Bereich auffällig und problematisch. Wenn sich die mangelhaften Schreibstandards dauerhaft konstatieren lassen, muss man darauf hinweisen, dass die höheren Schulen wohl keine Möglichkeit haben, die Kompetenzbereiche im aktiven und passiven Sprachgebrauch mit sprachbasierten und Sprache transportierenden Medien aller Art adäquat – also auf akademische Aufgabenfelder vorbereitend – zu schulen. Ein Studium der Geisteswissenschaften dann noch gut zu bewerkstelligen, setzt somit immer noch ein individuelles Begabungs-Plus, Leistungsbereitschaft und -fähigkeit sowie Interesse am Umgang mit komplexeren Versprachlichungen voraus. Dass dieser Voraussetzungsreichtum ein Universitätsstudium für die meisten, die es anstreben, nicht unmöglich macht, widerspricht der Akzentuierung des individuellen Begabungsgedankens als „Elite-Argument“, denn nach wie vor gilt: erfolgreich studieren durch gutes Schreiben ist keine Hexerei. Lediglich gute und sichere Sprachbeherrschung ‚allein‘ auf Basis allgemein-schulischer Vorbereitung ist heute so unglaublich unwahrscheinlich geworden, dass Universitäten gut daran tun, ihre Studenten an ihre eigene Sprache zu gewöhnen, ohne sie zu Wiederkäuern zu erziehen.

Maria Furtwängler isst kaum noch Fleisch …

Das Magazin „Stern“ und andere Hochqualitätsmedien haben in der letzten Woche in stilsicher hochtönig lobenden Worten darüber publiziert, dass Maria Furtwängler seit den Dreharbeiten für ihren neuesten ‚Tatort‘ mit dem Titel ‚Der sanfte Tod‘ (Erstausstrahlung am 7.12.2014) kaum noch Fleisch esse.

http://www.stern.de/kultur/tv/tatort-kommissarin-maria-furtwaengler-isst-kaum-noch-fleisch-2147211.html

Beim ersten Lesen soll man wohl denken: Oh, was für eine Gute, was für ein Vorbild, was für eine Selbstdisziplin. An ein zweites Lesen ist hierbei wohl nicht gedacht gewesen. Denn weiterhin redet die Furtwängler – zur Einschränkung, wie Sie es denn auch ohne ihre eigene Internet-Recherche über die fiese Massentierhaltung hatte verantworten können, Fleisch zu essen – davon, dass ihr Konsum vorher ‚eh schon nicht sehr groß‘ war, und jetzt ‚fast gegen Null‘ tendiere.

Ich möchte hier eine kleine Beispielbetrachtung mit Zahlenbasis aufmachen.

1.) Jemand, dessen Fleischkonsum gegen Null tendiert, und der 1 Gramm Fleisch am Tag isst, kann gleich komplett damit aufhören, denn 1 Gramm ist praktisch nichts.

2.) Jemand, der sich diese 1-Gramm-Tagesmenge aufspart und alle acht Wochen ein Schnitzel isst, wird zwar kein ‚richtiger‘ Vegetarier sein, aber echter Fleischkonsum ist das auch nicht, weil die Grundversorgung des Körpers fast ausschließlich aus nichtfleischlichen Produkten geleistet wird. Zudem ist der Verzicht auf ein Schnitzel alle acht Wochen noch leichter zu verkraften als der Verzicht auf das tägliche Schnitzel.

3.a) Stellen Sie sich vor, Frau Furtwängler hat vor den Dreharbeiten zu diesem sicher köstlichen Tatort (Erstausstrahlung 7.12.2014, ich wiederhole mich) pro Woche zwei Schnitzel gegessen, und jetzt für sich persönlich aus sehr altruistischen Gründen beschlossen, ihren Fleischkonsum zu reduzieren. Und nehmen wir an, sie isst Fleisch nur in der Darreichungsform eines „Schnitzels“.

3.b) Betrachten wir dazu eine Schnitzelgrößen-Tabelle, die besagt dass es  Standard-Schnitzel in folgenden Größen gibt: M (=200g), L (=300g), XL (= ca. 500g) und XXL (bis ca. 1000g).

3.c) Wenn Frau Furtwängler jetzt im Gegensatz zu früher nicht zweimal sondern nur noch einmal pro Woche ein Schnitzel isst, kommt sie auch bei der kleinsten Größe M auf 200g Schnitzel, womit die Aussage, dass der Fleischkonsum ‚gegen Null‘ tendiere, eigentlich nicht mehr zu vereinbaren ist, es sei denn in und an dem Schnitzel befindet sich kein Fleisch sondern fast nur Panade oder wertlose Füllstoffe. Dass Frau Furtwängler so etwas essen mag, ist allerdings zu bezweifeln.

3.d) Gehen wir allerdings davon aus, dass Frau Furtwängler (wieder zu sehen am 7.12. im Tatort) vorher wirklich schon keinen hohen Fleischkonsum hatte, dann wird sie sehr wahrscheinlich nicht vorher zwei Mal die Woche ein Schnitzel gegessen haben, sondern vielleicht nur ein mal. Als studierte Ärztin wird sie wissen, dass zwei Mal Fleisch pro Woche kein geringer Konsum ist, sondern von Ärzten als durchschnittlich empfehlenswerte maximale Verzehrmenge angegeben wird.

3.e) Hat Frau Furtwängler also vorher nur ein Schnitzel pro Woche gegessen, aber ihr jetziger Konsum liegt trotzdem noch nicht bei Null, sondern nur ‚fast‘ bei Null, dann muss sie ja noch irgendetwas fleischliches zu sich nehmen. Mal angenommen, sie hat sich von „Ein Schnitzel pro Woche“ auf „Ein Schnitzel alle zwei Wochen“ reduziert, dann gilt:

Wir reden hier vielleicht über eine Frau, deren Fleischkonsum sich von 800g im Monat auf 400g im Monat reduziert haben könnte. Haben unsere Medien sonst noch irgendetwas relevantes zu berichten außer den verschwindend geringen Nutritionsänderungen von Schauspielerinnen? Wird Frau Furtwänglers Engagement in diesem Tatort wirklich deswegen als gesellschaftlich vorbildhaft  relevant hochgeschrieben,  weil der Menge nach zu urteilen bei ihrem ohnehin schon geringen Verzehr alle paar Jahre einem Schwein damit das leben gerettet werde könnte, oder wird die Furtwängler – ohne auch nur irgendetwas erwähnenswertes außer ihrem Job getan zu haben  – relevant, weil sie Burda-Medien im Nacken sitzen hat? Welche Medien kümmern sich um uns arme Schweine, denen der Tatort fast jede Woche 1,5 Stunden Lebenszeit raubt? Ich jedenfalls habe mir vorgenommen, meinen Tatort- und meinen Stern-Konsum in Zukunft zu reduzieren, obwohl er in beiden Fällen eh schon ‚gegen Null‘ tendierte…

Über Ethik und ethische Expertise für Politik und Wirtschaft

Kongress- und Kommisionsphilosophen sind ein neuer Typus von funktionalem Akademiker, an dem sich neue Hoffnungen festmachen. Unter dem offensiven Vorwand eines Beratungsbedarfes von Politik und Wirtschaft sollen sie prototypisch für die Einholung des „Mehr“ in die geschlossenen Zirkel politischer oder wirtschaftlicher Selbstverständigungen stehen. Ist dies nur dem Gefühl des Ungenügens der Eigenverständigungsprozesse und -resultate geschlossener Entscheidungsfindungen geschuldet?

Wenn dem so wäre, müsste ein analoges Vorwänden von Beratungsbedarf in anderen Bereichen ebenso blühen. Dem ist nicht ohne weiteres so. Denn wenn das erste Ziel – die ethische Reflexion – mit dem zweiten Ziel – der ethischen Optimierung von Entscheidungsprozessen – mit der Bedarfsoffensive gar nicht wirklich erstrebt ist, dann steht nur das Bedürfnis nach einem Etikett im Vordergrund, das unangenehme aber bar jeder Beratung mögliche Entscheidungen durch das „Mehr“ legitimiert. Gemeint ist: ein „Mehr“ an lebensweltlichem Sinn in bürokratischem ‚Öffentlichkeitsmanagement‘, ein „Mehr“ an allgemeiner Vernunft in konkreten, pragmatischen Vorschriften und Ordnungen, die gerade gegenüber einer wachen und pluralistischen Öffentlichkeit unter einem wachsenden Rechtfertigungsdruck stehen. Die Stellen, an denen gestaltende Gewalten regulativ über die Grundlagen des menschlichen Zusammenlebens in einem Staat entscheiden, werden immer besser überwacht. Da sich Ethik in nachaufklärerischer Perspektive nicht mehr auf eine allgemein geteilte christliche Wertebasis berufen kann, kann man einerseits nicht mehr an ein Einziges glauben, andererseits wird erst dadurch Tür und Tor für abwägendes Reflektieren geöffnet. Und das ist anstrengend.

Die Einsicht, dass ethische Grundsätze kontingent sind ohne sich dadurch in ihrer Gültigkeit in einem gewissen Bezugsrahmen relativieren zu müssen, verlagert die Perspektive auf den Auswahlcharakter menschlicher Entscheidungen und lenkt den Fokus auf Aspekte, die eine Auswahl und damit den Ausschluss anderer Handlungsoptionen plausibilisieren. Einer dieser Auswahl-befördernden Aspekte ist die Expertise eines in Fragen der Ethik Auskunft gebenden Menschen. Worin kann ethische Expertise bestehen? Diese Frage ist ziemlich gut zu beantworten.

Expertise ist eine Frage des Wissens. Dieses ist oft mit Alter verknüpft: Lebensalter insofern als es ein geistiges Reflexionsalter ist, mit dem ein subjektiver Vorsprung in der reflexiven Objektivierung allgemeinmenschlicher Probleme und der Koordination von Handlungserwartungen auszumachen ist, das verstärkt dem Ziel verschrieben ist, objektivierte Lösungsmöglichkeiten zu identifizieren. Dem Lebens- oder Reflexionsalter soll eine vorgelebte Praxis der autonomen Einschränkung der eigenen Freiheitsspielräume innewohnen: Der Experte lebt und verkörpert beispielhaft einen Habitus, der ihm Glaubwürdigkeit hinsichtlich des Bereichs verleiht, in dem seine Expertiseleistung sich erfolgreich ausspielen kann.  Ohne die Zuschreibung eines besonderen Status‘ geht das nicht. Sicher hat der Experte die Aura des Wissensexoten, der in entweder sehr prominenten oder sehr abständigen Bereichen seine Stiche zu setzen weiß, aber die Aura oder der Status sind nur Beigaben: Ohne Argumente wird der Experte nie Status gewinnen. Im Idealfall sind diese Argumente allgemeinverständlich ohne platt zu sein, sie sind keine Autoritätsargumente, keine Argumente ad homines, keine naturalistischen Argumente. Damit hat der prinzipiell verstehbare aber nicht zwingend unmittelbar für jedermann verständliche Experte Grundbedingungen wissenschaftlichen Arbeitens zu erfüllen: Seine  Autorität ist insofern eine wissenschaftliche, als er auch diejenigen über Gültigkeitsbedingungen und Konsequenzen seiner Argumente in Kenntnis setzen muss, die sie nicht unmittelbar verstehen, aber verstehen könnten.

Das „Glück des richtigen Zeitpunktes“ muss ebenso auf der Seite des Experten sein. Seine kognitive Schulung nützt ihm wenig, wenn entweder seine Intuition nicht treffsicher genug ist, um auf die richtige Frage im Moment mit einer Antwort zu kommen, oder wenn die Situation so unglücklich ist, dass er zu momentan brennenden Fragen mit seinen Antworten nicht vorgelassen wird. Die zeitliche oder situative Frage-Antwort-Adäquatheit muss zum kognitiven Training und zur treffsicheren Intuition dazu kommen. Und wenn der Experte als solcher gilt, beobachtet man immer eine Folge, die seine Expertise zu einer solchen macht, indem sie jene stabilisiert durch Wiederholung: Expertise muss aus gutem Grund wiederholbar, zitierbar sein, man muss sich auf sie berufen können und wollen, auch wenn sie damit zur Folie für Autoritätsargumente in den Händen derjenigen wird, die aus mangelnder eigener Expertisefähigkeit nur Wiederkäuer sein können. Dabei ist manchmal zu beobachten, dass ein Teil der Experten-Aura auch den umfasst, der die Expertise nur reproduziert, aber nicht ihr Urheber war.

 Vorschriften der praktischen Ethik beschäftigen sich oft mit der Koordination von Ansprüchen auf Unversehrtheit und Erwartungen von Gegenseitigkeit. Normen des Sollens sind in ihrem Kernbereich meist Normen des gegenseitigen Sollens des Gleichen, damit Menschen als ‚gleiche Wesen‘ nicht unmenschlich durch ‚ungleiches Handeln und Behandeltwerden‘ werden, weil dies wahrscheinlich die Idee einer Menschlichen Gemeinschaft des Von-Geburt-aus-Gleich-seins in Frage stellt. Ohne moralisches, rechtliches oder traditionelles Sollen wäre menschliches Zusammenleben unmöglich. Jeder hat also ethisches Grundwissen oder Grundfühlen über Erwartung und Gegenerwartung, und dieses ist hat sich traditionell stabilisiert, bei gleichzeitiger Wandelbarkeit.

Einige Nonkognitivisten sagen, man könne ethisches Wertewissen nicht so erlernen wie auf empirischen Tatsachen beruhendes Wissen. In Ethischen Aussagen gibt es dieses „Mehr“: Das über das rein deskriptive Hinausgehende. (Für einige Nonkognitivisten sind Ethische Ausdrücke nur sprachpragmatische Instrumente, mit denen man eigene Handlungsabsichten durchsetzen könne.) Allerdings ist es dann unsinnig zu behaupten, dass das Sensorium für ethische Fragen nicht ausgebildet werden könne, nur weil in einer Tatsachenwelt keine objektiven moralischen Werte existieren können, an denen das Individuum in wiederholten Versuchen seine Erfahrung prägt. Denn wenn Nonkognitivisten das empirische Lernen als Weg des Wertewissens in die Weltgewissheit der Einzelnen bereits suspendiert haben, kann daraus  nicht folgen, dass alles in der Welt wissbare – und auch subjektives Wertwissen gehört ganz objektiv dazu, weil es Aussagestile formal und Welt- und Selbstbezugnahmen der Menschen inhaltlich prägt – nur empirisch erfahrbar sein könne. Wo käme dann das weltgestaltende Wertwissen her? Die nonkognitivistische Grundannahme führt ins Leere, wenn sie die empirisch erfahrbare Wirkmacht des erlernten Wertwissens leugnen wollte. Dass Menschen Wertzuschreibungen vornehmen, und sich oftmals im Abgleich ihrer Zuschreibungen eine große Einigkeit demonstrieren lässt, beweist zumindest, dass trotz nicht von vornherein ausgemachter ‚Objektivität‘ des Kontingenten doch eine seltsame Kohärenz des intersubjektiv geteilten Wertewissens möglich ist und ohne große intellektuelle Nöte zur Lebenswirklichkeit eines Großteils der Menschheit gehören kann.

Sicher ist das von Menschen Konstruierte kontingenter als das bloß von Menschen vorgefundene, aber wenigstens leitet man aus bloßem Vorgefundenen nicht das Seinsollen mehr ab, sondern im Falle von Gesetzen nur noch das relative Geltensollen in bestimmten Bereichen. Auch das ist ein Gesundungsschritt für die menschliche Selbstregie.

Zu Politik und Wirtschaft, dort wo sie sich in Absicht des Feigenblatterwerbs an Ethikkomissionen wenden, sei gesagt: Aus einer Beratung folgt nicht Handeln sondern nur: Beratensein, aus einer guten Beratung nicht gutes Handeln sondern gutes Beratensein. Wie einer handelt, bleibt seinem eigenen Kosmos ausgeliefert: Kann er oder kann er nicht, nachdem er dieses und jenes gehört und mit gutem Grund von diesem und jenem zu glauben begonnen hat, so müsse es gemacht werden? Selbst wenn der gute Rat – der ja sprichwörtlich teuer ist – eingeholt ist, gilt immer noch: Gut über das Gute beraten zu sein heißt nicht, ausreichend in die Spur geschickt worden zu sein für weitreichende Entscheidungen mit Aussicht auf Gesetzescharakter und Verbindlichkeit für alle. Denn die kritische Anmerkung, ob und wie für uns alle das selbe überhaupt gleich gut sein könnte, sollte als Beigeschmack jeder ethischen Expertise innewohnen. Wer aber kann dann noch zweifelsfrei handeln?

Assortative Paarung und Demodystopie

oder: Stell dir vor, du bist Philosoph, es ist Paarungszeit und niemand ist da…

 

 

 

Wir alle sind gerade in schwachen Zeiten der Meinung, dass mit der Erfüllung eines bürgerlichen Lebensplan-Solls ein nicht unerhebliches Versprechen auf privates Glück einhergehen kann. Dazu rückt irgendwann die Aufgabe des Individuen-Status zugunsten der Paarbildung in den Fokus.

Demodystopien, also Szenarien, die uns über die Entvölkerung ganzer Landstriche auch in entwickelten Industrienationen in Kenntnis setzen, sagen zunächst nur: Es gibt immer weniger Menschen innerhalb eines bestimmten nationalen, kulturellen oder ethnischen Bezugsrahmens. Der Kreis der zur Auswahl stehenden Gelegenheiten aus Fleisch und Blut zieht sich immer enger zusammen. Einen entscheidenden blinden Fleck hat auch jede gut recherchierte und um die Plausibilisierung ihrer Ergebnisse redlich bemühte Demodystopie dann doch: Sie spricht nie von geistiger, intellektueller Entvölkerung. Nettoabtropfmasse an Menschen garantiert für keine Findung passender Partner, sie sagt nichts über Chancen positiver Assortativität der Geister, die sich finden wollen, um gegenseitig – mehr als nur ihre Körper – ihre Selbst- und Weltverhältnisweisen zu befruchten. Stell dir vor, du bist klug und auf Partnersuche und niemand ist da. Keine Sau….

Es hat schon seinen Reiz, Begriffe aus der Evolutionstheorie und Verhaltensbiologie auf geistige Passungskriterien zu bürsten. Unter positiver Assortativität verstehe ich, dass das Kriterium gleicher oder sich ähnelnder Eigenschaften bei der Partnerwahl im Vordergrund steht, bei negativer Assortativität geht es um die Triggerwirkung unterschiedlicher Eigenschaften. Alle Lebewesen höherer Ordnung sind getrenntgeschlechtliche Populationen, was dazu führt, dass auf dem Findungsmarkt Eigenschaftsunterschiede oder -Gleichheiten erst ihre kritische Relevanz gewinnen.

Trotz aller Unterschiede oder Gleichheiten suchen wir verzweifelt nach einem anderen Menschen als dem, der wir selbst sind. Dazu müssen wir oft Strecke zurücklegen, rein äußerlich. Alle früheren Kulturen – besonders die, die durch eine hohe soziale Dichte, durch das Leben primär in kleinen, überschaubaren Umkreisen, den Gemeinschaften gekennzeichnet sind – kennen das Zurücklegen von Strecke unter dem Phänomen der Exogamie. In der Regel verlangt die reine Bestandserhaltung die Fokussierung auf die Gemeinschaft, auf ihre Immunisierung gegenüber externen Einflüssen. Wo es aber um Bestandsneubildung oder -Erweiterung geht, müssen sich geschlossene Zirkel öffnen und auf externe Individuen aus anderen Gemeinschaften zurückgreifen. In genetischer Hinsicht bewirkt die Durchmischung auf Basis blutstechnischer Nicht-Assortativität, dass Populationen genügend Varianzen erzeugen um nicht an ihrer Verarmung erkranken zu müssen. Genetische Unterschiedlichkeit ist allerdings schwer codierbar, in der Regel ist ihre Wahrnehmbarkeit kulturell konstruiert. Die narrative Spur, die mit der kulturellen Abständigkeit einer fremden Exogam-Gemeinschaft gleichzeitig eine genetische Ferne garantiert, kann diese Korrelation nicht natürlich erklären, denn genetische Abständigkeit kann durch kein menschliches Sensorium wirklich erspürt werden. (Außer dem Geruchssinn vielleicht.) Gleichzeitig wird der Nicht-Assortativitätsbedarf, der hinter der Exogamie steckt, in Schieflage gebracht durch die Gefahr, die in Frühkulturen allem „Fremden“ automatisch innewohnte, einfach weil das Fremde immer das „absolute“ Andere war. Deshalb war Exogamie nur zu bewältigen durch: Politisch verordnete Eheschließung, oder durch gefahrenmildernde Suche nach ‚weichen‘ positiv-assortativen Merkmalen im fremden „Anderen“: etwa gleicher Geschmack des Exogam-Partners, ähnliche Tagesabläufe und Rituale. Nur dann kann man nichtsdestoweniger Partner dort finden, wo man sie niemals vermuten wollte.

Dass wir uns auf den Anderen „als“ Anderen – also als nicht bereits identitär in uns begriffenes Gegenüber – überhaupt einlassen können, erfordert in einer Zeit der Offenheit und geographischen Schizophrenie eine Ferne-überwindende Kommunikation, die Nähe fingiert, sowie das Pendeln zur Wochenendbeziehung, oder andernfalls das Aufsuchen neuer Weideplätze oder Fleischmärkte. Der moderne Kopfarbeiter lebt mit dem Globus als Gewissheit, der Welt als Perspektive und sucht sich haltungsflexibel eine neue Wiese. Denn dass sich die Erfolgschancen in einem leeren Landstrich lediglich durch einen neuen Aufwand in der selben alten Sache steigern ließen, darf mal grundsätzlich bezweifelt werden. Zumal von mir.

Und wenn Klassiker aus der Kategorie „Klug aber schwer vermittelbar“ (zum Beispiel Mathematiker) dem Geld und dem selbstbestimmten Leben ortsungebunden hinterher eifern, verträgt sich mit diesem Stil des Seins kaum etwas anderes als das Modell einer offenen, polyamorösen Fernbeziehung, die Elemente aus menage-a-trois und living-together-apart zu einer latent explosionsgefährdeten Mischung vereint. Wer glücklich werden wollte, verliert sich aufgrund der Leere vor Ort als Freier Mensch mit Prioritäten in solchen Bindungen, die ihren Namen nicht wert sind.

Und stell dir vor, du bist klug und es ist jemand woanders da, der deine Bedenken bei der Paarwerdung teilt….

Und wenn wir uns trotz Distanzen von New York bis nach Berlin so sehr auf Nähe gechattet und geskyped haben, dass wir beginnen und wechselseitig mit Nachdruck nach unseren Vorstellungen zuzurichten und in Kenntnis unserer ursprünglich faszinierenden Gleichheiten oder Unterschiedlichkeiten nun beginnen, uns ein Leben auf Dauer in räumlicher Nähe zuzumuten, auf das wir gar nicht vorbereitet werden konnten, dann ist es schade, dass es fast schon egal ist, ob es nun die große Liebe hatte sein sollen, die es nicht sein konnte. Denn in einer Welt des Tausches auf Menschenmärkten gilt nachwievor das gute alte Wort aus der ‚Dialektik der Aufklärung‘: „Gerade in der Liebe selber wird der Liebende ins Unrecht gesetzt und bestraft.“ Na schönen Dank auch.

 

 

 

 

Hier ein kleiner Nachbericht von der Phil.Cologne, auf der dieser Text zu hören war und wo ich relativ am Anfang auch noch interviewt werde: http://www1.wdr.de/fernsehen/kultur/west-art/westartphilcolognebackhaus100.html

Das Tier ‚in‘ mir

Über Ethische Probleme des Fleischkonsums und der Tierhaltung

 

Wussten Sie, dass selbst Veganer und Frutarier Teile ihrer eigenen Magenschleimhaut verdauen? Wenn es stimmt, dass Sie unter dieser Maßgabe noch Veganer oder Frutarier heißen dürfen, dann muss man das Wort „Konsum“ in Bedeutung des Essens in zwei Teile splitten: Das was wir essen, und das, was wir verdauen. Auch menschliche Körper leben nicht von dem, was sie essen, sondern von dem, was sie verdauen. Wenn ein Mensch Tiere isst, hat er Tier in sich. Wenn ein Tier in der Darreichungsform Wurst verzehrt wird, ist es Tier im eigenen Darm, das der Mensch in sich hat. Er hat dann Tier, das in sich ist, in sich. Das ist aber nicht reflexiv zu verstehen, denn da das Tier vom Menschen verschieden ist, hat der Mensch nicht sich selbst in sich, sondern etwas anderes in sich, das für sich in sich ist. Tiere sind keine Menschen, nicht mal dann, wenn sie für Menschen und durch Menschen und zum Spaß des Menschen leben…

Darf man Tiere in sich haben? Die Frage müsste lauten: Dürfen Menschen Tiere essen? Die Antwort lautet: Ja, sie dürfen. Generell ja, aber nicht uneingeschränkt. Allerdings: Nur dem Menschen stellt sich diese Frage, Tieren nicht. Menschen KÖNNEN daher auch zu einer anderen Einschätzung kommen, ob es wirklich so sicher ist, dass sie, die Menschen, Tiere in sich haben dürfen. Die Antwort lautet also auch: Nein, dürfen sie nicht.

Aber: Tiere landen nicht nur auf den Tellern von Menschen, sondern auch auf denen anderer Tiere – wenn Tiere Teller hätten. Wenn ein Tier Tiere isst, hat es Tier in sich. Der Mensch hat das tierische Leid nicht erfunden, sondern für seine Zwecke (oder die der Industrie) nur perfektioniert und zu einer serienmäßigen Zumutung gemacht – und er kann es auch nicht generell abschaffen, sondern nur das menschengemachte. Tierisches Leid ‘muss’ aber auf unserem Planeten solange existieren, wie es Ökosysteme mit funktionierenden Räuber-Beute-Beziehungen gibt. Wollen Sie einem Löwen in der Savanne seinen Fleisch-Hunger austreiben und ihn zum Vegetarier machen, nur weil SIE (Warum gucke ich Sie dabei an?) in utilitaristischer Hinsicht der Meinung sind, die globale tierische Lustsumme sei als Ausgangspunkt einer Tier-ethischen Reflexion geeignet? Nur für Menschen ‚kann‘ es ein ethisches Problem werden, Tier in sich zu haben. Unter den Bedingungen industrieller Massentierhaltung IST das Essen von Tieren ein moralisches Problem. Anders wenn ein Tier einen Menschen isst: kein moralisches Problem, denn das Tier kann sich diese Frage nicht stellen, auch nicht wenn es andere Tiere isst. Es kann also kein Problem mit der ‘generellen’ Frage, ob ‚Lebewesen‘ gegessen werden dürfen, geben, denn: Lebewesen wurden von anderen Lebewesen immer schon gegessen, und zwar immer dort, wo Ökosysteme funktionieren. Da ich beschreibe und nicht urteile, dass es deswegen auch so sein soll, begehe ich hier keinen naturalistischen Fehlschluss. (Wer doch einen findet, darf ihn behalten.) Es gibt entlang von Räuber-Beute-Beziehungen Populationsgleichgewichte, die sich eigendynamisch austarieren. Übrig bliebe die Frage: Unter welchen Bedingungen dürfen Menschen Tiere in sich haben, abgesehen von den Bakterien, die eine natürliche Darmflora ausmachen und die jeder automatisch in sich hat?

Unsere Praxis der Tierhaltung erübrigt nicht die Frage, ob nicht unter der Maßgabe einer anderen tiergemäßen Haltungspraxis das Essen von Tieren unbedenklich sein könnte. Ja: könnte es. Es kann menschliche Notlagen geben, Mangel an bestimmten Stoffen, die den Rückgriff auf Ernährung mit tierischen Produkten nötig werden lassen. Aber:

Nicht nur Essen: auch Stoffe, Leder zum Beispiel: Ein Vegetarier der solche Produkte wertschätzt, kalkuliert nicht auf andere Weise mit tierischem Leid als jemand, der sie isst. Das ethische Problem ist daher keins nur für Fleischesser, sondern auch Vegetarier, für alle Menschen: Dürfen Menschen zur Gewinnung tierischer Rohstoffe Tieren eine Haltungsform zumuten, die mit deren vermeidbarem Leid kalkuliert? (Diese Frage wirkt ungleich bürokratischer, und zwar weil sie präziser ist.)

Nein, weil…. oder Ja, weil… Jemand, der ein Haustier hat, geht nicht davon aus, dass dessen Haltung in einer Stadtwohnung eine nicht artgerechte Haltung ist. ‚Nicht-artgerecht‘ identifizieren wir aber oft mit der Quelle ‘tierischen Leids’ generell. Da beginnt die Schizophrenie, Haustiere de dicto (also dem Wort gemäß) als Tiere zu bezeichnen, de re (der Sache nach) als Menschen zu behandeln ist schizophren. Ja natürlich macht das tierethische Reflexionen tendenziell unmöglich, wenn Reden und Handeln so auseinanderklaffen.

Sie werden wahrscheinlich auch unter Nicht-Vegetariern die Ansicht “Nein, wir dürfen nicht zur Gewinnung tierischer Rohstoffe eine Haltungsform praktizieren, die mit tierischem Leid kalkuliert” finden. Sie werden von Haustierhaltern vielleicht hören, dass sie nichts furchtbarer finden als Tierquälerei – und man solle ihnen das deshalb glauben, weil sie ihre Haustiere lieben. Keine Frage: Wer sein Tier liebt, tut ihm nichts. Wer sein Tier liebt, muss es allerdings auch füttern. Seinen Hund zum Beispiel mit Fleisch, oder mit Wurst. Daraus ergibt sich folgendes Problem:

Nicht nur ob WIR Menschen Tiere zu Nahrungszwecken töten, sondern ob wir nicht im Sinne der artgerechten Ernährung derjenigen Tiere, die wir ALS HAUSTIERE in Abhängigkeit zu uns halten, VERPFLICHTET sein könnten, andere Tiere zu Nahrungszwecken zu töten, müsste als ethisches Problem wahrgenommen werden. Wir haben Verantwortung für unsere Hunde, sobald wir sie aus natürlichen Ökosystemen lösen (so sie darin je waren), sie in unsere Kulturhöhlen zwischen Schrankwänden einsperren und sie dann ernähren müssen. Das könnte allerdings heißen, dass unsere ‘Tierliebe’, z.b. gegenüber Haushunden es gerechtfertigt erscheinen lassen muss, andere Tiere für Bello töten zu ‘müssen’. Das Resultat wäre, dass das Tier ‘Hund’ ein vorrangiges Lebensrecht vor Tieren hätte. Wenn wir mit dem ‘Tierliebe’-Argument das Töten von Tieren durch Menschen in Frage stellen, müssten wir dann – trotz Tierliebe – unsere fleischfressenden Haustiere abschaffen, da es nicht artgerechte Haltung wäre, Hunde zu Vegetariern umzuerziehen. Es sei denn, wir halten Hunde nicht mehr für Tiere sondern vermenschlichen sie, dann können wir von ihnen etwas verlangen, das im Kontext unserer Verhaltensentscheidung z.B. für den Vegetarismus eine eigentlich rein menschliche Selbstentwurfsfähigkeit meint. Der Hund ‘entscheidet’ sich nicht für Vegetarismus sondern wir uns an seiner Stelle für ihn. Das Kulturwesen ‘Hund’ dann aber noch in die Argumentationskette der ‘Liebe zur Kreatur’ einzubeziehen ist so unsinnig wie ein Drei-zu-Null für Düsseldorf.

WIR Menschen können unsere Nahrungsgewohnheiten selber ‘umstellen’, und wir tun das im Falle des Fleischverzichtes auf Basis einer moralischen Überlegung. Es reicht nicht, mit dem moralisch präjudizierten Tierliebe-Argument den Fleischkonsum zu stoppen, sondern man sollte dann auch aufhören, fleischfressende Haustiere zu halten, da man von wirklichen Tieren nicht verlangen kann, solche Entscheidungen über ihre Versorgung auszuhalten, die gegen ihre artgerechte Ernährung stehen. Entweder Tierliebe für ALLE Tiere, auch solche, die zu Wurst werden, oder für keines.

Menschen ‚können‘ lediglich Tier in sich haben, fleischfressende Tiere ‚müssen‘ es. Tierisches Leid wird daher immer existent sein, solange es Ökosysteme mit funktionierenden Räuber-Beute-Beziehungen gibt, und im Sinne des Umweltschutzes wollen die meisten Gutmenschen unter uns, dass diese Ökosysteme gesund bleiben: Also das Leid des Beutetiers oder das Leid des erfolglosen Räubers existent bleibt.

Sagen Sie daher niemals: Das Ziel einer praktikablen Tier-Ethik sei eine Welt ohne tierisches Leid und ohne Fleischkonsum. Das ist definitiv Blödsinn. Respektieren Sie ihr fleischfressendes Haustier. Wenn Sie ihm aus menschlich-einsichtigen Gründen kein Fleisch geben können, geben Sie verdammt nochmal das Haustier weg. Und respektieren Sie ihre eigene Freiheit zur Wahl eines anderen Verhaltens. Das ist konsequent. Die Dinge liegen tiefer. Benutzen sie das Tierschutzargument nicht wie einen Ausweis ihres Gutmenschentums. „Die guten Leute sollen das Maul halten. Sollen sie gut sein zu ihren Kindern, auch fremden, zu ihren Katzen, auch fremden; sollen sie aufhören zu reden von einem Gutsein, zu dessen Unmöglichkeit sie beitragen“, sagte Uwe Johnson in  „Über eine Haltung des Protestierens.“ Und als Exkulpation am Schluss: Wer unter euch ohne Sünde ist, der werfe das erste Mettbrötchen.

 

 

 

(d.i.: Mein Beitrag in der Finalrunde des Philosophie-Slams „Schlag den Platon“ am 24.5.2014, bei der 2. PhilCologne (Internationales Philosophie-Festival) in Köln.)

Philosophieren für Anfänger – Ein kleiner Selbsttest

Seit einiger Zeit sehe ich mich öfter mit der Frage konfrontiert, ob das Studieren von Philosophie das Selbstdenken verhindere. Nicht pauschal, sicher, warum auch. Aber wer studiert, also wer sich dem Wortsinn gemäß lesend und diskutierend ‚bemüht‘, lernt Positionen anderer kennen. Das allein scheint vielen, die einen unreflektierten Begriff von „Selbstdenken“ proklamieren, verdächtig zu sein: Das Vorurteil gegenüber Verweis-Reichtum hörte ich in letzter Zeit zu oft von lese-faulen Menschen, die Meinung mit Selbstdenken verwechseln müssen, eben weil sie zu wenig lesen. Selbstdenken hatte in der mittelalterlichen Disputatio eine Aufgabe zu bewältigen, die von den Lektüre-Verweigerern heute als Affront gesehen wird: Sich selbst in die Argumente eines anderen dermaßen hineinzudenken, dass man mit ihnen und gegen sie reden kann. Dazu muss man eines: Sich auf andere und ihre Gedanken wirklich einlassen. Das ist Philosophie.

Es gehört jedenfalls auch zur Philosophie, kurzsichtige Euphorien über wunderbar eigene Kopfprodukte und voreiligen Lösungsoptimismus reflexiv oder mit Quellenunterfütterung so gegen den strich zu bürsten, bis was bei rauskommt, das man selbst und andere halbwegs glauben können. Wer die intellektuelle Risikobereitschaft, den „eigenen“ Gedanken mittels Lektüre misstrauen zu lernen, nicht aufbringt, darf ja trotzdem mitreden, nur sollte er sich nicht mit einer Wissenschaft etikettieren, unter deren Namen es im akademischen Vollsinne üblich geworden ist, Gegengewichte zum Selbstgefälligkeitsparlando bloßer Meinungsproduktion auszubilden. Das ist nicht böse oder verletzend gemeint, sondern einer idealistischen Lesart von Philosophie geschuldet. Warum sollte ausgerechnet die Philosophie voraussetzungsloser als andere Wissenschaften sein? Mathematik oder Medizin darf man für schwere Studienfächer halten, zu denen manchem Menschen einfach irgendein Organ fehlt. Der schlechte Ruf der Philosophie hat damit zu tun, dass sie von denen – die kein Interesse an eigener Entwicklung, sondern nur an dem Recht ihrer eigenen Meinung auf Statik haben – mit voraussetzungslosem Drauflos-Reden identifiziert wird. Das ist aber unfair und auch sachlich weit daneben.

Keineswegs ist im Vorhinein festgelegt, dass Akademiker die Epigonen der Philosophie seien und der Rest nur Dilettanten. Zum sachlichen Modus, eine idealistische Lesart zu benennen, gehört es aber auch, dass sie von konkreten Personen abstrahiert. Niemand weist einen anderen als Dilettanten oder sich als Epigonen aus, sondern die Redeweise der jeweiligen Person lässt sie sich selbst einen immer noch auslegungswürdigen und -bedürftigen Aufweis ihrer Herangehensweise ausstellen. Jenachdem ob dieser Zugang spannend erscheint und etwas Neues verspricht oder nicht, werden dadurch solche Kategorien wie Dilettant unerheblich. Aber: Was ist neu an diesem alten Hut, dass nur der wirklich frei im Denken sei, der nichts rezpiert? Der ist auch frei von präzisen und lange erwogenen Einsichten. Das ist nicht Freiheit sondern Kurzsichtigkeit. Und warum braucht genau diese Art von Freiheitsprätention den pauschalen Aufweis, dass jemand, der zitiert, nicht selber gedacht habe? Ich kann diesen unendlich platten Vorwurf echt nicht mehr hören. Zumal dieser Vorwurf nie auf die Idee kommt, dass vielleicht derjenige, der nur in angelernten Worten spricht aber seine Quellen geheimhält, vielleicht mehr eigenes Denken vortäuscht als derjenige, der mit seiner Quellen-Offensive tatsächlich ein Gegenüberstellen verschiedener Gedanken vorantreiben will und seine Aufgabe in kritischen Vergleichs- und Auswertungsdiskussionen sieht, wobei man allerdings eines tun muss: selber denken.

Universitäten bilden ja auch keine Weisheit-liebenden aus, sondern funktionale Akademiker. Das spricht aber nicht gegen sie sondern es ist ein großes Glück, dass sich die Philosophie noch an den Unis halten kann. Und zudem ist es,eine interessante Herausforderung, sich in diesem institutionalisierten Rahmen seine Freiräume für das eigene weiterdenken zu erobern, und ich kenne keinen Professor, der das dann nicht goutieren würde.

 

Philosophieren für Anfänger

 

Zur Klärung der Frage, ob Ihr Interesse an Philosophie nicht bloß geheuchelt ist und Sie das Zeug dazu hätten, ein professioneller Philosoph zu werden, habe ich Ihnen ein paar Aspekte im Fragestil zusammengestellt, anhand derer Ihnen ein Licht aufgehen darf. Wenn Sie alle Fragen mit „Ja“ beantworten können, dann sind Sie Philosoph. Ist doch schön einfach: einfach schön. Einfach anfangen. Hat ja niemand behauptet, dass es leicht würde… :

– Sie fühlen sich nicht minderwertig, nur weil jemand in einer philosophischen Diskussion mehr Thesen der Philosophen x, y, z aufzählen kann?

– Sie lassen sich selbst bei leichten Anflügen von Minderwertigkeit nicht aus der Bahn werfen und bleiben beim Thema?

– Sie suchen nach Orientierung in Texten und halten die Orientierung auf das, was Ihnen nicht vorher bereits plausibel war, für den einzig gangbaren Weg?

– Sie mögen Neues, Nicht-Selbstverständliches, Kontroverses, Verworrenes, und Sie mögen es, sich dabei auf die Gedanken anderer Menschen offenherzig einzulassen?

– Sie mögen es, wenn dieses Kontroverse und Verstörende aber in einer präzisen, verstehbaren (das heißt nicht zwingend unmittelbar verständlichen) Sprache verfasst ist und nicht zu blumig oder bloß metaphorisch daherkommt?

– Sie verstehen es, die Autorität von Texten  zu hinterfragen und können die Situationen, wo es genau darauf ankommt, von solchen unterscheiden, wo dies lediglich ein Nebenkriegsschauplatz ist und von Argumenten ablenken soll?

– Sie können mit dem, was Sie Neues erfahren, etwas anfangen, indem Sie es für Ihr Weltwissen anschlussfähig machen?

– Sie sind überzeugt, dass Freiheit im Denken auch auf der Selbstverpflichtung zu geistiger Inspiration, die von woanders herkommt, beruhen kann?

– Sie lesen gerne, nicht zwingend viel, dafür aber so, dass sie einen anstrengenden Text eher aufbrechen und verstehen wollen, als dass Sie ihn weglegen?

– Sie diskutieren gerne, aber ohne Autoritätsargumente, ohne Argumente gegen Menschen und ohne aus dem bloßen Vorhandensein von Dingen deren Sein-Sollen abzuleiten?

– Sie lieben es, über das Denken nachzudenken und das Sprechen zu sprechen, sowie über das Diskutieren zu diskutieren und Argumente gegen Argumente zu bringen?

– Sie zweifeln eher an sich als an anderen, ohne dass der Zweifel Sie unproduktiv und restlos melancholisch macht?

– Sie zweifeln auch an anderen, wenn diese mit Autoritätsargumenten oder Argumenten gegen Menschen ankommen oder das Sein-Sollen von Dingen aus deren Vorhandensein folgern?

– Sie können aber auch einen Kompromiss machen und einen Punkt unter eine Diskussion setzen, wenn Sie ein Thema sachlich ausdiskutiert sehen?

– Ihnen gelingt es, eigenes Interesse an Fragen des Daseins zu entwickeln, ohne dass ein Fernsehsender oder eine Zeitung drüber berichtet hat?

– Sie halten nicht viel von Pauschalisierungen?

– Sie erkennen z.b. Widersprüche nicht nur bei anderen sondern auch und gerade bei sich selbst?

– Sie leiten aus der Einsicht in Selbstwidersprüche nicht zwingend deren sofortige Behebung ab sondern versuchen, diese Widersprüche produktiv zu nutzen?  

– Sie glauben nicht, dass institutionelle Philosophie dem Selbstdenken ganz unbedingt widersprechen müsse?

– Sie haben die tiefe Gewissheit, dass ohne Anstrengung keine philosophische Bildung zu haben ist?