Sonntag, 19. März 2017

Bitburger Eisenmeteorit kehrt heim, allerdings nur ein geschmolzenes Teilstück

Lange bevor die Menschen, die wir Kelten nennen, unsere Gegend besiedelten, fand in der Südeifel ein Naturereignis ungewöhnlicher Art statt. Ob es am Tage oder während der Nacht geschah, wissen wir nicht. Jedenfalls war  minutenlang der Himmel hell erleuchtet und ein knatterndes und zischendes Geräusch erfüllte die Luft. Es endete mit einem laut knallenden Aufschlag, der die Erde im Umkreis von Kilometern erschütterte.

Geschichte und Ort des Fundes

Es war im Jahre 1802, also acht Jahre nachdem französische Revolutionstruppen bei uns einmarschiert waren, im Jahre X des Revolutionskalenders, als  sich Napoléon in Paris zum Konsul auf Lebenszeit wählen ließ und Österreich im Frieden von Lunéville seine linksrheinischen Gebiete an Frankreich abtrat. Damals stieß der Bauer und Mühlenbesitzer Matthias Müller von der Albachmühle beim Anlegen eines Weges auf seinem Acker auf einen ungewöhnlich großen Metallklumpen. Er lag etwa einen Meter unter der Oberfläche. Die Albachmühle gibt es heute noch und liegt etwa 4 km östlich des Stadtkerns. Sie gehörte damals zur Gemeinde Mötsch und wurde inzwischen mit dieser zusammen ins Gebiet der Stadt Bitburg eingemeindet. Die den Fundort umgebende Flur hieß damals ‚auf Folkert‘. Nach der letzten Flurbereinigung heißt sie ‚im Lohberg‘.


Fundstelle im Albachtal (Tranchot-Karte um 1810)

Eigenschaften des Himmelskörpers

Der freigelegte Klumpen wurde eindeutig als Himmelskörper identifiziert, also als Meteorit. Die ursprünglich gefundene Eisenmasse muss etwa 80x50x50 cm groß gewesen sein, denn sie wog rund 1,6 Tonnen (circa 33 Zentner). Der erste Bericht darüber erfolgte durch den englischen Oberst Gibbs, der 1805 ein kleines Stück abgehauen hatte. Veröffentlicht hat er darüber erst 1814. Erst dadurch wurde der Fund auch bei deutschen Mineralogen bekannt. Eine im Jahre 1974 durchgeführte Analyse ergab neben Eisen die folgenden Bestandteile: Nickel 12,4%, Gallium 34,8 ppm, Germanium 140 ppm und Iridium 0,46 ppm [ppm = parts per million]. Damit ähnelt er anderen auf der Erde gefundenen Meteoriten. Besonders das Element Iridium weist auf den außerirdischen Ursprung hin.


Mikroskopischer Ausschnitt des Bitburger Meteoriten

Schicksal des Fundes und erste Wiederentdeckung

Im Jahre 1807 wurde der Fund für 16,5 Taler an Peter Jost, den Betreiber des Pluwiger Hammers verkauft. Der Transport muss per Pferdewagen erfolgt sein. Die an der Ruwer, einem südlichen Nebenfluss der Mosel, gelegene Eisenschmelze mit Hammerwerk und Mahl- und Sägemühle gehörte früher dem Trierer Domkapitel. Nach der Säkularisation hatte Jost 1806 Hammerwerk und Mühle ersteigert.


Gesamtansicht des Schmelzkuchens aus Pluwig,
 gefunden 2014 in Wülfrath

Als man nach dem Schmelzen das Eisen schmieden wollte, fiel es wie Sand auseinander. Auch das Beifügen von normalem Eisen half nichts. Man entschloss sich daher, den Schmelzkuchen, also die abgekühlte Schmelzmasse, auf dem Gelände der Hütte zu vergraben. Durch Mitglieder der Trierer Gesellschaft für nützliche Forschungen wurden nach 1830, also während der Preußenzeit, rund 300 kg wieder ausgegraben. Sie wurden zersägt und an verschiedene Museen in Deutschland und im Ausland verschenkt. Größere Teile kamen nach Bonn und Berlin in die dortigen mineralogischen Sammlungen. Lothar Monshausen [1] hatte 1994 die in Berlin befindlichen Brocken fotografiert. Zwei bis drei Zentner, die nicht aufgeschmolzen worden waren, konnten bis heute nicht wieder gefunden werden.


Abgetrenntes Teilstück für Stadt Bitburg

Zweite Wiederentdeckung und weiterer Verbleib

Der in Stuttgart ansässige Heilpraktiker Yasar Kes, der als Hobby Mineralien sammelt, entdeckte am 17. Mai 2014 auf dem Gelände eines Kalksteinbetriebs in Wülfrath (zwischen Düsseldorf und Wuppertal) ein über 100 kg (!) schweres Teilstück des Schmelzkuchens des „Bitburger Meteoriten“. Wie es dorthin gelangt war, ist nicht bekannt. Einige Stücke wurden seither mit einem Wasserstrahlschneidegerät abgetrennt. Zurzeit finden im mineralischen, petrographischen Institut der Universität Tübingen (unter Leitung von Udo Neumann) wissenschaftliche Untersuchungen statt. Ein Teilstück des Schmelzrestes wurde von Yasar Kes am 8. März 2017 dem Bürgermeister der Stadt Bitburg persönlich überreicht und wird demnächst im Rathaus in einer Vitrine ausgestellt werden.


Weitere Teilstücke



Oberflächenstruktur

Danksagung: Für den Hinweis auf die Geschichte des ursprünglichen wie des erneuten Fundes danke ich Lothar Monshausen aus Bitburg. Alle Fotos hat er freundlicherweise zur Verfügung gestellt.

Referenz

1.   Monshausen, L., Schulze, H.: Das Rätsel des Bitburger Eisenmeteoriten. In: Beiträge zur Geschichte des Bitburger Landes, Nr. 15 (1994), 107-111


Nachtrag am 22.3.2017


Heute fand in Bitburg die Übergabe eines Teilstücks an Stadtbürgermeister und Stadtarchivar statt. Das Mitteilungsblatt der Stadt berichtet darüber.




Dienstag, 7. März 2017

Epochalismus oder noch mehr Folklore, die man hinterfragen darf

Im April 2014 überschrieb ich einen Blog-Beitrag mit den Worten Informatik-Folklore, die man hinterfragen darf. Am Schluss standen ein paar Sätze, an die ich hin und wieder erinnert werde.

Unsere Branche ist  ̶  um  Evgenij Morozovs Terminologie zu verwenden  ̶  wie keine andere dem Epochalismus verfallen. Morozov nennt es auch technologische Amnesie. Immer wieder erscheinen Heilslehrer, die verkünden alles Alte zu vergessen, denn gerade habe ein neues Zeitalter begonnen. Nicht die Heilslehrer sind unser Problem, sondern die vielen (so genannten) Fachexperten, die ihnen glauben und folgen, statt sich eigene Gedanken zu machen.

Worte zu finden ist leicht, Werte zu schaffen jedoch nicht

Gerade fand mal wieder eine Diskussion unter Fachkollegen statt über das Übermaß von Hypes und Schlagworten, unter dem unsere Branche zu leiden hat. Angeregt wurde diese Diskussion von dem Kollegen Peter Mertens aus Nürnberg mit einem Beitrag im Informatik-Spektrum 4/2016 (S.301 ff). Er nahm die beiden Schlagworte Digitalisierung und Industrie 4.0 aufs Korn. Der Kollege Ernst Denert aus München reagierte mit einem Leserbrief in Heft 1/2017 (S.119). Er schlussfolgerte, dass die 'Öffentlichkeit Besseres verdient [habe] und die Informatik auch'.

Am 2.3.2017 bemerkte ich dazu:

das von Peter Mertens und Ernst Denert beklagte Problem von Hype und Schlagworten verfolgt uns Informatiker auf Schritt und Tritt. Dasselbe Heft des Informatik Spektrums, in dem Denerts Leserbrief erschien, liefert ein schönes Beispiel. Ich zitiere: ‚Eine Smart City soll jedoch nicht als Endstation der Stadtentwicklung angesehen werden, sondern soll sich mithilfe von Cognitive Computing in eine Cognitive City entwickeln ... Die Fähigkeit, sprachliche Parameter zu berechnen, macht es möglich, Informationen bewusst, kritisch, logisch, achtsam und aufgrund von Überlegungen zu verarbeiten‘. (Informatik Spektrum 1/2017, S.55).

Am 3.3. 2017 erwiderte Peter Lockemann aus Karlsruhe:

das kann man noch fortsetzen. Eines dieser Unworte ist "smart". Ein wundervolles Beispiel für die gedankenlose Verwendung von "smart" findet sich auf Seite 47 als Abb.1 in dem von Ihnen zitierten Beitrag (s. anbei).



Ein in der Politik beliebtes Anhängsel ist "4.0" überall dort wo man glaubt, man müsse Aktionismus bekunden. Aus einer Folie eines unserer Landesministerien: Wirtschaft 4.0, Industrie 4.0, Handwerk 4.0, Dienstleistungen 4.0, Handel 4.0, Arbeit 4.0, Aus-und Weiterbildung 4.0, Diversity 4.0, Europa 4.0, Gründung 4.0 (alles auf ein und derselben Folie!). Ich würde mir gerne erklären lassen, was die Autoren jeweils damit meinen. Kritik allein ist aber zu wenig. Dahinter steckt eben auch ein unglücklich artikulierter Bedarf, und mit dem sollten wir Informatiker uns ernsthaft auseinandersetzen (tun wir ja oftmals auch, aber für die Öffentlichkeit häufig unverständlich).

Am selben Tage schrieb Jürgen Nehmer aus Kaiserslautern:

ich habe direkt nach Erscheinen des Artikels Herrn Mertens geschrieben und ihm erklärt, wie sehr ich seine Ansicht teile. Als Senator und späterer Vizepräsident der DFG sind unzählige Forschungsanträge an die DFG aus der Informatik über meinen Tisch gelaufen und ich hatte oft die Aufgabe, den Inhalt meinen Kollegen aus den Ingenieurwissenschaften, den Naturwissenschaften und der Mathematik zu erklären. Ich bin mir oft wie ein Übersetzer vorgekommen, der Texte mit immer neuen Modebegriffen ohne Substanz in eine klar verständliche Techniksprache übersetzen musste, damit meine Kollegen im Senat und Präsidium nachvollziehen konnten, was mit einem Forschungsvorhaben aus der Informatik beabsichtigt war.

Noch ein paar Gedanken dazu. Digital stand für alles, was von der Informatik berührt wird, also genutzt und verändert werden kann, und smart ersetzte das früher stets überall verwendete Wort intelligent. Beide waren bis zuletzt die beliebtesten ‚Buzzwords‘ der Branche, die man an alles dranhängte. Genau genommen waren es Adjektive, die man voransetzte, wollte man überhaupt gehört werden. Das galt sowohl für die Produktwerbung, als auch für das Einwerben von Fördergeldern. Allmählich wird man dieser beiden Attribute überdrüssig. Sie werden daher abgelöst von ‚kognitiv‘ (anstatt smart) und Welt 4.0 (für alles, was schon digitalisiert ist).

Worte sind wie Verpackungen. Wer etwas verkaufen will weiß, dass er auf die Verpackung achten muss. Nur darf sie nicht übertrieben sein oder mehr vortäuschen, als in ihr ist. Dass auch andere Wissenschaften sich plötzlich das Attribut ‚digital‘ oder ‚smart‘ geben, hängt vielleicht damit zusammen, dass sie gerne ähnliche Fortschritte erreichen möchten wie die Informatik. Bei ihnen reichen dafür Worte ebenfalls nicht aus.

Alt ist von Übel, nur neu ist geil

Selbst in den besten Informatiker-Kreisen besteht ein äußerst seltsames Verhältnis zu allen in der Praxis existierenden Software-Systemen – selbst den gut eingeführten. Entsprechen sie, was ihre externen Merkmale anbetrifft, nicht der neuesten Mode, erhalten sie schnell das Prädikat Altsystem. Wie über alles Gestrige, so rümpft man die Nase. Man tut so, als ob man sich damit verunreinige. In Wahrheit gäbe es ohne bewährte Software unsere Branche überhaupt nicht, ohne sie liefen 90% der heutigen Anwendungen nicht. Die Definition bei Wikipedia ist ziemlich zutreffend.

Der Begriff Altsystem (engl. legacy system) bezeichnet in der Informatik eine etablierte, historisch gewachsene Anwendung im Bereich Unternehmenssoftware. Legacy ist hierbei das englische Wort für Vermächtnis, Hinterlassenschaft, Erbschaft, auch Altlast.

Fast immer wird auf Altsysteme herabgesehen, ja geschimpft. Das geschieht nicht nur in der Wissenschaft, sondern auch in der Praxis. Die Gründe dafür sind vielfältig. Ein möglicher Grund wird in Wikipedia gleich mitgeliefert.

Innerhalb der Anwendungslandschaft eines Unternehmens sind es zumeist großrechnerbasierte Individualentwicklungen, die sich oft durch unzureichende Dokumentation, veraltete Betriebs- und Entwicklungsumgebungen, zahlreiche Schnittstellen und hohe Komplexität auszeichnen. Die dort anzutreffende zentrale Daten- und Funktionshaltung galt seit der Client/Server-Euphorie als überholt.

Diese Definition ist garantiert schon mehrere Jahre alt. Sie müsste längst überarbeitet werden, da die Client/Server-Euphorie inzwischen der Cloud/App-Euphorie gewichen ist. Natürlich gibt es immer etwas Neues, das per se besser ist als der letzte Schrei von gestern. Nur so schafft man sich als Software-Entwickler neue Aufträge. Wie alle Betroffenen wissen, erfolgte die technische Entwicklung der Hardware exponentiell nach dem Mooreschen Gesetz. Jede Generation eines Systems war um eine Größenordnung besser, was Speicherkapazität und Rechnerleistung betrifft. Das zog den Umfang und die Breite der Software nach sich.

Es ist wichtig drauf hinzuweisen, dass es nicht der Fortschritt der Hardware ist, der Software ‚veralten‘ lässt. Ändert sich die Anwendungslogik inklusive Datenstrukturen, dann sind Änderungen der Software unvermeidbar. Anders muss man die vielen Änderungen der Softwaretechnik bewerten. Neue Entwurfsverfahren, neue Sprachen, neue Testmethoden und dgl. haben an sich nur Konsequenzen für neu zu entwickelnde Anwendungen. Ihre Übernahme durch das Entwicklerteam produziert jedoch Legacy-Code, d.h. Altsysteme, für deren Pflege bald keine Kompetenz mehr vorhanden ist. Dieser Preis wird sehr oft nicht in Betracht gezogen. Man muss nämlich über die einzelne Anwendung hinausdenken. Interessant sind noch die folgenden Bemerkungen zum Thema Altsysteme. Da wird einerseits betriebswirtschaftlich argumentiert, andererseits auf mögliche Probleme hingewiesen.

Sowohl in wirtschaftlichen Aufschwung- wie in Abschwungphasen wird oft repriorisiert, um die mit einer Ablösung verbundenen hohen Ausfallrisiken bzw. Umstellkosten zu umgehen, zumal der bloße Ersatz eines Legacy-Systems nicht mit einem direkten Mehrwert, sondern meist nur mit der Einsparung von kalkulatorischen Kosten (Kosten für temporären oder dauerhaften Ausfall) oder Opportunitätskosten (entgangene Umsätze wegen begrenzter Leistungsfähigkeit des Legacy-Systems) verbunden ist.

Es wird zugestanden, dass manchmal die Ablösung keinen ‚direkten Mehrwert‘ ergibt oder dass die Kosten des Altsystem keine echten Kosten sind. Man fordert dennoch dessen Ablösung. Die Frage ist nur, wer es wann macht. Wer sich auf eine Umstellung einlässt, läuft Gefahr in nicht erwartete Probleme zu rennen, für die es keine einfache Lösung gibt. Deshalb kann es sein, dass eine ‚Einkapslung‘ der Ausweg der Wahl ist. Das erinnert an den havarierten Kernreaktor von Tschernobyl, ist aber etwas weniger schlimm. Es gibt mehrere Gründe, sich von der Vergangenheit der eigenen Branche zu distanzieren. Ich liste einige auf:

  • Alles was man jetzt macht, erscheint größer als es in Wirklichkeit ist. Es werden weniger Vergleiche gemacht.
  • Man braucht weniger zu wissen, also zu lernen, um als Experte zu gelten. Man braucht sich nicht mit den Methoden und Werkzeugen zu befassen, mit denen vorhandene Produkte entwickelt wurden.
  • Probleme, die bei jedem Produkt erst bei der Nutzung auftreten, gehen einen nichts an.
  • Die Befassung mit Vorhandenem bindet Mittel, die man nicht für die Neugestaltung der Zukunft verwenden kann.

So lange es genug neue Systeme zu entwickeln gibt, kann man die Wartung und Pflege alter Systeme wegdelegieren. Diese Tätigkeiten werden daher ‚outgesourced‘, und zwar möglichst an Kollegen mit Standortnachteilen, z.B. in Entwicklungsländern wie Indien und Vietnam. Die dürfen sich dann mit den ‚alten‘ Methoden und Werkzeugen befassen. So existieren einige Hundert Milliarden Zeilen Programmcode in COBOL oder Fortran, den beiden früheren Standardsprachen der Branche. So wie die Literatur des Westens ein Jahrtausend lang sich des Griechischen und Lateinischen bediente, so entstanden viele Programme, die noch heute eine Rolle spielen, in Programmiersprachen, die man inzwischen als historisch bezeichnen kann. Von den rückwärts blickenden Geisteswissenschaftlern sondern sich die nach vorne gerichteten Ingenieure gerne ab. Dummerweise schafft die Informatik auch Bleibendes.

Es ist zweifellos so, dass immer noch zu viel Individual-Software entwickelt wird, auch da wo Standard-Software möglich ist. Leider entspricht es mehr der Natur vieler Menschen, lieber etwas Neues zu schaffen als etwas Vorhandenes zu pflegen. Das ist nicht nur in der Software-Branche der Fall. Um das Alte in nutzbarem Zustand zu halten, ist Aufmerksamkeit erforderlich. Seine Pflege muss gewährleistet sein. Da Software nicht durch Nutzung verbraucht wird, muss sie immer wieder angepasst werden. Je umfangreicher sie ist, umso seltener ist die Ablösung und Neuimplementierung ein gangbarer Weg. Jede Generation von Programmieren hofft, dass dieser Zeitpunkt doch bitte nicht in ihre Lebenszeit fällt. Anders ist es, wenn er für Firmen wie Alphabet, Amazon, Apple oder Facebook arbeitet. Deren Software wird nicht sobald ersetzt werden. Sie ist schon heute viel zu umfangreich.

Strategien sind wichtiger und schöner als Lösungen

Manchmal bedienen sich Informatiker auch gerne der Begriffe, die anderswo ihren Ruhm erlangt haben. Ein Beispiel ist das Wort Governance. Es stammt aus dem Französischen und bedeutet Regierungs-, Amts- oder Unternehmensführung. Bezeichnet wird damit das Steuerungs- und Regelungssystem im Sinn von Strukturen (Aufbau- und Ablauforganisation) einer politisch-gesellschaftlichen Einheit wie Staat, Verwaltung, Gemeinde, privater oder öffentlicher Organisation. Häufig wird es auch im Sinne von Steuerung oder Regelung einer jeglichen Organisation (etwa einer Gesellschaft oder eines Betriebes) verwendet. Davon abgeleitet wird die IT-Governance.  Es geht dabei darum,

die Anforderungen an die IT sowie die strategische Bedeutung von IT aus Sicht der Kern- und Führungsprozesse im Unternehmen zu verstehen, um den optimalen Betrieb zur Erreichung der Unternehmensziele sicherzustellen und Strategien für die zukünftige Erweiterung des Geschäftsbetriebes zu schaffen.

Governance schafft also Strategien. Aus Strategien werden irgendwann dokumentierte Pläne, aus Plänen endlich Produkte und Dienste. Als Teil der Informatik- oder IT-Strategie kann es eine eigene Software-Strategie geben. Wie jeder General im Kriege gelernt hat, gehören zwei Dinge immer zusammen. Man muss nicht nur eine Strategie haben  ̶  nicht irgendeine, sondern eine gute  ̶  man muss sie auch umsetzen können und wollen. Wenn immer ich das Wort Governance oder Strategie bei unsern Kollegen höre, so frage ich mich, ob wirklich an mehr als nur das Erstellen von Dokumenten gedacht wird. Manchmal müssen Lösungen gefunden werden, auch ohne dass es eine Strategie gibt.

Mittwoch, 1. März 2017

Empathie ̶ Sozialtugend mit Kehrseite

Es ist bezeichnend, dass es heute kaum noch Katastrophen gibt, die ohne einen Spendenaufruf in den Medien davonkommen. Die meist sehr starke Resonanz, vor allem in Deutschland, zeigt, dass die Empathie für Notleidende sehr ausgeprägt zu sein scheint. Empathie (engl. empathy) ist die Rückübersetzung aus dem Englischen des deutschen Worts ‚Einfühlen‘. Barack Obama soll noch gesagt haben, dass es im Volk zu wenig Empathie gäbe. Donald Trump sieht die Dinge offensichtlich ganz anders. Sein Erfolg regte viele zum Nachdenken an. So bewog es den Literatur-, Kultur- und Kognitionswissenschaftler Fritz Breithaupt (*1967) ein Buch zu veröffentlichen, das Beachtung fand, unter anderem durch eine Rezension in SPIEGEL 9/2017. Es heißt: Die dunklen Seiten der Empathie und erschien 2017.

 Autor und Buch

Nicht nur lehrt sein in Meersburg geborener Autor heute an einer Universität des amerikanischen Mittelwestens (Indiana University in Bloomington), er kennt auch Leute, die Trump gewählt haben. ‚Fly-over country‘ heißt diese Region bei vielen Amerikanern. Alles, was er zu sagen hat, steht in den ersten 40 Seiten. Man braucht also das eBuch gar nicht zu kaufen und ganz zu lesen. Bevor ich näher auf dieses Buch eingehe, hier eine Definition des Begriffs Empathie, natürlich aus Wikipedia.

Empathie bezeichnet die Fähigkeit und Bereitschaft, Empfindungen, Gedanken, Emotionen, Motive und Persönlichkeitsmerkmale einer anderen Person zu erkennen und zu verstehen. Zur Empathie wird gemeinhin auch die Fähigkeit zu angemessenen Reaktionen auf Gefühle anderer Menschen, wie zum Beispiel Mitleid, Trauer, Schmerz und Hilfsbereitschaft aus Mitgefühl gezählt. Die neuere Hirnforschung legt allerdings eine deutliche Unterscheidbarkeit des empathischen Vermögens vom Mitgefühl nahe. Grundlage der Empathie ist die Selbstwahrnehmung; je offener eine Person für ihre eigenen Emotionen ist, desto besser kann sie auch die Gefühle anderer deuten.

Diese Definition reicht für den normalen Bedarf eigentlich völlig aus. Sie geht sogar über das Buch hinaus, indem sie zwischen ‚empathischen Vermögen‘ und Mitgefühl unterscheidet. Der Autor macht hier keinen Unterschied. Breithaupt erweckt den Eindruck, als ob er das Thema systematisch nach vier methodischen Strängen abhandeln würde, nämlich aus Sicht der Evolution, nach dem ‚Theory of Mind`-Ansatz, empirisch (d.h. aufgrund von MRI-Untersuchungen) und phänomenologisch. Leider bleibt es bei dieser Ankündigung. Es wird mal nach hier, mal nach dort gesprungen.

Geschichte eines Begriffes

Empathie muss gegen Ende des 18. Jahrhunderts in der westlichen Welt ihre gesellschaftlich relevante Rolle erlangt haben. Sie ging mit dem Aufkommen des Individuums einher, sowie der Abschaffung der Leibeigenschaft und der Sklaverei und der Einführung der Menschenrechte. Ausführlich wird erklärt, was Nietzsche und Schopenhauer zu dem Thema zu sagen hatten. Von da geht es zu Umfragen an amerikanischen Universitäten, aus denen hervorging, dass die Fähigkeit  zur Empathie im Abnehmen begriffen sei. Dass die Umfrage-Ergebnisse möglicherweise dadurch beeinflusst wurden, dass Worte verwandt wurden, die früheren Studenten geläufiger waren als heutigen, wird eingeräumt. Dass Asiaten eher an eine Landschaft als an Menschen denken, wenn von Einfühlen die Rede ist, zeigt, dass wir es mit einem typisch westlichen Thema zu tun haben.

Helle Seiten der Empathie

Empathie bewirkt ein Mit-Erleben. Wie in einem früheren Blog-Beitrag beschrieben, wurde vor Jahren entdeckt, dass Primaten hierfür besonders befähigt sind. Sie verfügen über spezielle Nervenzellen, die so genannten Spiegelneuronen. Diese  ermöglichen es, Absichten, Gedanken und Gefühle anderer Individuen mitzuerleben. Wir werden in die Situation des andern transportiert und haben dabei oft einen klareren Blick als der Betroffene selbst. Der Betroffene mag verwirrt, ja verstört sein, während wir seine ganze Situation sehen und berücksichtigen können.

Empathie benötigt eine gewisse Kultur, um überhaupt in Erscheinung zu treten. Es ist eine Eigenschaft, die durch Erziehung gefördert werden muss. Sie bereichert die eigene Erlebniswelt, erfordert aber eine gewisse Lebenserfahrung. Empathie kostet viel Energie im Gehirn, oder anders herum, sie setzt ein hochentwickeltes Gehirn voraus. Ein Autist besitzt die Fähigkeit der Empathie nicht. Er kann sie bis zu einem bestimmten Grade durch Alltagswissen ausgleichen.

Dunkle Seiten der Empathie

Breithaupts Zielrichtung ist es zu zeigen, dass der  Begriff Empathie auch Schattenseiten hat. Er ist vielleicht zu sehr hochgejubelt worden. Manches, was im Buch gesagt wird, ist nicht neu, jedoch beachtenswert.

Die Empathie schafft kein akkurates Verstehen des anderen. Sie festigt eher ein vorschnelles Urteil. Sie führt nicht notwendigerweise zu einem moralischen Verhalten. Sie ist im Grunde eine Form von Resonanzsuche. Urteilt man nach Prinzipien wie Fairness und Gerechtigkeit, führt dies meist zu andern Ergebnissen als die Empathie.

Die Empathie kann leicht zu problematischen Verhaltensweisen führen. Das Mitempfinden des Leidens beschert manchen Menschen eine Art von Befriedigung. Man spricht dann von Sadismus oder gar Vampirismus. Das Opfer mag ganz überraschend Sympathie für den Täter entwickeln und mit ihm kooperieren. Nach einem Vorfall 1973 in der deutschen Botschaft kennt man das so genannte Stockholm-Syndrom. Oft identifiziert man sich mit den Helfern anstatt mit dem Notleidenden. Die Nazis pervertierten die Dinge, indem sie zum Mitleid mit den Tätern aufriefen.

Obsessive Formen der Empathie kommen zum Ausdruck beim Fan, der zum Stalker wird. Auch die so genannten Helikopter-Eltern lassen ihren Kindern keine Freiheit. Sie schweben quasi über ihnen, wo auch immer diese sind. Es ist dies eine Form emotionaler Instabilität der Eltern. Nach Breithaupt kann Empathie sogar zur Ursache von Radikalisierung werden. Der Islamist fühlt sich zu einer Gruppe von Menschen hingezogen, für die er bereit ist zu kämpfen, ja zu töten. Die Empathie verschärft die Konflikte. Es geht dabei immer um ‚wir gegen andere‘, selbst in Form des Terrorismus.

Zwei gewagte Erklärungsversuche

Seine Aktualität gewinnt das Buch, indem es versucht zu zwei Ereignissen der jüngeren Geschichte eine eigene Erklärung beizusteuern: Angela Merkels Flüchtlingspolitik und Donald Trumps präsidiale Eskapaden. Ich will sie kommentarlos wiedergeben.

Deutschland sei 2015 die Empathie-Nation Nr. 1 geworden dank Merkel. Es sei nicht allein das Erbe der Schuld, das uns dazu machte. Angela Merkel sei im Sommer 2015 durch ein Wechselbad der Gefühle gegangen. Es begann Mitte Juli in Rostock. Eine Palästinenserin aus dem Libanon, etwa 13 Jahre alt, fragte Merkel, ob sie nicht dafür sorgen könnte, dass ihre Familie eine dauernde Aufenthaltserlaubnis bekommen kann. Sie möchte gerne in Deutschland studieren. Merkel erklärte dann, dass es so viele Flüchtlinge gäbe, die nicht aus sicheren Drittländern kämen, die man nicht abweisen könnte. Als Merkel später sah, dass das Mädchen weinte, ging sie zu ihm und sagte: ‚Weine nicht, Du hast alles prima gemacht‘. Darauf sagte der Moderator: ‚Frau Merkel, damit helfen Sie dem Mädchen nicht‘. Sie erschien mal wieder als die kalte, gefühlslose Vernunftfrau. Als eine Woche später Flüchtlinge im Budapester Bahnhof durch die Medien gingen, zeigte Merkel Empathie und lud sie ein, nach Deutschland zu kommen. Seither ist das Land gespalten und Angela Merkels Position wackelt. ‚2015 wird sich nicht wiederholen‘ sagt Seehofer.

Donald Trump binde seine Anhänger durch Empathie. Er setze voll auf Emotionen. Er sei wie ein großes Baby, dem viele helfen wollen. Auch er (Breithaupt) hatte bereits Trumps Niederlage emotional durchgespielt, wissend, dass Trump sich dagegen sträuben würde. Nach erfolgreichem Wahlausgang erweise sich Trump als ein Meister der Empathie. Er wisse, dass er einen narzisstischen Charakter habe. Er versuche daher alles durchzusetzen, was er versprochen habe. Von seinen Anhängern erhalte er Zustimmung für die Art, wie er Angriffe abwehrt mittels eines Gegenangriffs – selbst dann, wenn sie berechtigt sind. Seine Fehlerhaftigkeit mache ihn zum Modell für andere.

Dienstag, 21. Februar 2017

Wunder, Wohltaten und Plagen der Informatik

Der Titel des Buchs ‚Sieben Wunder der Informatik‘ von Juraj Hromkovič von 2006 machte mich neugierig. Da das Buch zum Jahreswechsel als Teil eines günstigen Angebots des Verlags zu haben war, hatte ich einen Grund es jetzt zu lesen. Das Buch hat mir sehr viel Spaß gemacht und ich kann es nur empfehlen. Es hat mir mal wieder klargemacht, dass andere Leute oft ganz andere Sichten auf unser Fachgebiet haben, als ich mir dies in meiner Berufspraxis angewöhnt hatte. Hromkovič sieht die Informatik primär aus der Sicht des Algorithmenentwurfs. Es ist noch nicht lange her, da war dies einmal ein Teil der angewandten Mathematik. Manche Leute rechnen das Gebiet auch heute noch dazu. Beim Lesen fragte ich mich immer wieder, wann kommt eigentlich etwas, was man als Informatik im eigentlichen Sinne ansehen könnte, also etwas genuin Informatisches. Ich werde zunächst Hromkovičs Ideen kurz vorstellen, dann werde ich versuchen, etwas darüber hinauszublicken.

Erstaunliches aus der Algorithmik

Nach den sieben im Titel versprochenen Wundern musste ich etwas suchen. Im Text war nur das erste auch als Wunder bezeichnet. Bei allen andern habe ich aus der Beschreibung geschlossen, dass dies wohl auch das Prädikat Wunder bekommen haben müsste. Es ist nicht auszuschließen, dass ich schon mal danebengegriffen habe. Hier also die Liste der ‚sieben Informatik-Wunder‘:
  1. Randomisierung von Algorithmen: Dass Algorithmen durch Nutzung von Zufallszahlen verbessert werden können, grenzt tatsächlich an ein Wunder. Man erzielt eine kürzere Laufzeit durch den Verlust der Sicherheit, das absolut beste Ergebnis zu haben. Bei bestimmten Verfahren verringert sich die Wahrscheinlichkeit eines Fehlers durch lineare Verbesserung exponentiell. Sie kann dadurch leicht unter die Fehlerwahrscheinlichkeit der Hardware (10 hoch -18) gedrückt werden. Juraj Hromkovič arbeitet auf diesem Gebiet.
  2. Symmetrische Verschlüsselung: Das im Jahre 1976 veröffentlichte Verfahren nach Whitfield Diffie und Martin Hellman (Turing-Preis 2015) gestattet die symmetrische Verschlüsselung. Es ist jedoch nur bei passiven Boten sicher.
  3. Public-Key-Verfahren: Das im Jahre 1978 veröffentlichte Verfahren nach Max Rivest, Ron Shamir und Len Adleman  (Turing-Preis 2002) benutzt eine Einwegfunktion. Die Firma RSA ist weltbekannt geworden, vor allem wegen ihrer Patente. Ihr Verfahren ist heute in der Praxis nicht mehr wegzudenken.
  4. DNA-Rechner: Dass mit DNA-Molekülen gerechnet werden kann, ist im Prinzip klar. In chemischen Prozessen stehen Operationen wie Trennen, Zusammenfügen und Test auf Leer von DNA-Sequenzen zur Verfügung. Es wurde gezeigt, dass man damit Pfade in einem Netz suchen kann. Einzelne Operationen können allerdings Tage dauern, die Fehlerrate ist hoch (3%).
  5. Quantenrechner: Sie sind in aller Munde, besonders im Hinblick auf ihre Anwendung in der Kryptografie. Benachbarte Register sind in Superposition mit unterschiedlicher Wahrscheinlichkeit. Gerechnet wird mit 2 hoch n Qbits gleichzeitig. Quantenrechner bleiben spezielle Einzweckrechner. Sie werden Desktops und Smartphones nicht ersetzen. Sie müssen tiefgekühlt werden, um zu funktionieren. Sie sind sehr instabil, da sie mit der Umwelt interferieren können.
  6. Online-Planung (Scheduling): Die Zeitablaufsteuerung bezweckt das Erstellen eines Ablaufplanes (engl. schedule), der Prozessen zeitlich begrenzt Ressourcen zuteilt. Das Planen kann auch dann sinnvoll sein, wenn sich die Aufgaben dynamisch ergeben, etwa bei einem Notdienst.
  7. Simulated Annealing: ‚Annealing‘ heißt Ausglühen. Es ist ein seit Jahrtausenden angewandtes Verfahren, um Metall-Bindungen zu stärken. Metalle nehmen quasi ein heißes Bad mit anschließender Abkühlung. Als Simulation dieses Verfahrens gilt der so genannte Metropolis-Algorithmus.
Wie gesagt, es handelt sich bei der Algorithmik um ein zwar interessantes und zentrales Teilgebiet der Informatik. Man sollte es jedoch nicht mit der Informatik als Ganzer gleichsetzen. Woran ich dabei denken muss, soll in den folgenden Abschnitten angedeutet werden.

Erfreuliches dank Informatik

Noch wichtiger als die erwähnten sieben Wunder sind die Wohltaten oder Durchbrüche, die bewirkten, dass die Informatik eine unvergleichbare Breitenwirkung erzielte. Ich greife exemplarisch ein Dutzend heraus. Diese Liste ist bei weitem nicht vollständig. Leiten ließ ich mich von den herausragenden Leistungen einiger Kollegen, die dafür eine Anerkennung als Turing-Preisträger fanden. Die meisten dieser Leistungen sind Wohltaten nicht nur für das Fach Informatik, sondern für die gesamte Menschheit. Unsere Technik ist nämlich eine, die nach ihrem Nutzen für Menschen bewertet werden muss.    
  1. Frühe Programmiersprachen: Kein Kollege hat das Gebiet der Programmiersprachen mehr befruchtet als Niklaus Wirth (Turing-Preis 1984). Von ihm stammen  EULER, ALGOL-W, MODULA und PASCAL. PASCAL hatte einen großen pädagogischen Einfluss und bildete die Grundlage für mehrere heute im Einsatz befindliche Sprachen. Ken Iverson (Turing-Preis 1979) schuf die Sprache APL. Ihre sehr kompakte mathematische Notation bereitete den Weg für das interaktive Programmieren vor.     
  2. Objektorientierte Sprachen: Ole-Johan Dahl und Kristen Nygaard (Turing-Preis 2001) legten den Grundstein für die objekt-orientierte Programmierung mit der Sprache Simula. Die Konzepte Objekt, Klasse und Vererbung hatten hier ihren Ursprung. In Java hat Jim Gosling eine Trennung von Compile- und Laufzeit-Umgebung realisiert, die es erlaubt vorübersetzte Programme auf allen möglichen Gerätschaften zu nutzen. Java ist heute die wichtigste Programmiersprache.
  3. Rechnerarchitektur und Betriebssysteme: Mit Fred Brooks (Turing-Preis 1999) verbindet man das System/360. Hier wurde nicht nur das 8-bit-Byte eingeführt, sondern eine Vielzahl von Architekturkonzepten, die unsere ganze Branche beeinflussten. Gene Amdahl und Gerry Blaauw waren damals Brooks' Wegbegleiter. Brooks leitete später auch das Team, das das größte Software-Projekt seiner Zeit realisierte, das Operating System/360, kurz OS/360. Von den vielen Betriebssystemen der Frühzeit schälte sich Unix zum Defacto-Standard heraus. Es ist die Basis von IOS und Android, den beiden konkurrierenden Smartphone-Betriebssystemen. Seine Autoren waren Dennis Ritchie und Ken Thompson (Turing-Preis 1983).  Sie bestimmten wie fortan in der Branche über Programmierung gedacht wurde und wie Entwickler zusammenarbeiteten.
  4. Grafische Systeme und grafische Nutzungsschnittstellen: Dass Computer sich heute nicht auf den Umgang mit Zahlen und Texten beschränken müssen, geht zurück auf Pioniere wie Ivan Sutherland (Turing-Preis 1988). Für sein System Sketchpad schuf er die erste Grafische Nutzungsschnittstelle (engl. graphical user interface, GUI). Der Nutzer konnte am Bildschirm zeichnen und Objekte manipulieren, d.h. drehen, verzerren und verfärben. Einen weiteren wichtigen Schritt stellte die Erfindung der Computer-Maus durch Doug Engelbart (Turing-Preis 1997) dar. Statt durch eingetippte Befehle wurden fortan alle Objekte (Dateien, Programme, Texte) wie auf einem Schreibtisch hin und her geschoben.
  5. Transaktionssysteme und Datenbanken: Als Jim Gray (Turing-Preis 1998) und Andreas Reuter ihr Buch über Transaktionssysteme schrieben, glaubten sie noch, dass es außerhalb von Transaktionen keine ernsthaften Computer-Anwendungen gäbe. Für die Welt der langfristigen Datenspeicherung war Ted Codd (Turing-Preis 1981) eine Art von Messias. Sein Relationales Model löste im Laufe der 1980er Jahre alle andern Methoden der Datenorganisation ab.
  6. Entwurfs- und Testverfahren: Zu den erfolgreichen Entwurfsprinzipien in der Informatik zählt die so genannte Datenabstraktion. Man definiert Operationen möglichst ohne Bezug auf die Struktur der Daten. Die Grundlagen dieses Konzept gehen auf Barbara Liskov (Turing-Preis 2008) zurück. Beim Jahrzehnte langen Ringen um bessere Testmethoden erwies sich das Model Checking als Lichtblick. Es basiert auf Arbeiten von Ed Clarke, Allen Emerson und Joseph Sifakis  (Turing-Preis 2007). Das System wird in einer logischen Notation spezifiziert, gegen die das System durch Ausführung maschinell verglichen wird.
  7. Internet und Web:  Viele Zeitgenossen setzen heute Computer und Internet gleich. Das Transmission Control Protocol sowie das  Internet Protocol (TCP/IP), das Vin Cerf  und Bob Kahn (Turing-Preis 2004) entwarfen, ist die Basis des Internet. Das Konzept des Uniform Resource Locators (URL), das Tim Berners-Lee erfand, ebnete den sagenhaften Erfolg des Web. Dass das Suchen im Netz so leicht und dennoch so ergiebig ist, geht auf die Erfindung des Page-Rank-Algorithmus durch Sergey Brin und Larry Page zurück. Selten hat ein einzelner Algorithmus die Wirtschaft und Wissenschaft so verändert, wie Google bzw. Alphabet dies tun. Diverse technische Erfindungen wie das Komprimierverfahren MP3, beigetragen von Karl Heinz Brandenburg und seinen Kollegen, eröffneten den Online-Markt für Musik und Videos. Damit explodierten die Datenmengen. Das Gespenst namens ‚Big Data‘ überzieht seither die Welt.
  8. Robotik: Roboter sind Computer, die aktiv mit ihrer Umgebung interagieren oder sich bewegen. Roboter, die Rasen mähen oder Treppen steigen, oder selbstfahrende Autos machen von sich reden. Von der Vielzahl von erforderlichen Technologien sei nur das Maschinelle Lernen herausgegriffen. Dabei kommen in der Regel Neuronale Netze zum Einsatz. Handelt es sich dabei um mehrstufige Netze, spricht man von ‚Deep Learning‘. Manche aktuellen Erfolge werden dieser Technik zugeschrieben.
  9. Wikipedia: Als richtungsweisendes Projekt im Internet sei das Online-Lexikon Wikipedia erwähnt. Es bietet zurzeit etwa 40 Millionen Artikel in fast 300 Sprachen. Sie werden von einer Vielzahl von Autoren verfasst. Dabei werden sie fortlaufend bearbeitet und diskutiert. Alle Inhalte stehen unter freien Lizenzen. Sie sind nicht durch Copyright geschützt. Jimmy Wales ist der Initiator. Die Finanzierung erfolgt durch Spenden (engl. crowd funding).
  10. Endgeräte-Explosion: Nichts hat die Informatik bisher mehr verändert als der Erfolg der Smartphones. Es war Steve Jobs, der die Jahrzehnte alte Vision umsetzte, Telefone und Computer zu integrieren. Die Stückzahlen gehen bereits in die Milliarden. In Stadtstaaten wie Hongkong und Singapur überschreiten sie die Anzahl der Einwohner. Die Erkennung und das Übersetzen von natürlicher Sprache machen Riesenfortschritte. Es ist dazu kein Wunder mehr erforderlich, besonders im Anbetracht der überall verfügbaren Rechnerkapazität. Nur zur Illustration: Ich selbst  trage einen 37-GIPS-Rechner mit 64 Gigabytes Speicher am Gürtel beim Gang durch die Wohnung. Es ist dies das 250- bzw. 8000-fache einer Cray-1. Mein Smartphone ist ein iPhone 6s.
  11. Internet der Dinge: Um eine weitere Größenordnung können sich die Endgeräte verkleinern bzw. ihre Anzahl vergrößern, wenn wir an Sensoren denken, die mit dem Internet verknüpft sein werden. Es wird erwartet, dass durch diese Technologie die Fertigungsindustrie einen enormen Schub erfährt (Industrie 4.0).
  12. Geschäftsmodelle: Es war ein langer Weg von den ersten Großrechnern mit karger Software zu einer Industrie, in der Software ein eigenständiges Geschäft darstellte. Bill Gates gilt als einer der Pioniere, die sich dem Neuen gegenüber öffneten und davon profitierten. Auch dies war nur ein Zwischenschritt. Software kann heute ein Köder sein, um andere Produkte zu lancieren, oder eine erfolgreiche Suchmaschine ermöglicht ein Werbegeschäft bisher nicht dagewesenen Ausmaßes. Die Zahl möglicher unterschiedlicher Geschäftsmodelle füllt Bücher.
Übrigens treffen sich alle noch lebenden Turing-Preisträger in diesem Sommer in San Francisco. Einige der hier genannten Kollegen sind vielleicht Kandidaten für zukünftige Turing-Preise.

Bedrohliches aus der Informatik

Ehe ich als blauäugiger Optimist verspottet werde, möchte ich auch auf Probleme hinweisen, für deren Entstehung die Informatik verantwortlich ist. Es sind Plagen, d.h. Fehlentwicklungen mit bedenklichen, ja potentiell fatalen Folgen. Ich will nur ein halbes Dutzend erwähnen. 
  1. Offene Systeme: Die Möglichkeit, dass ein Hersteller sich frei an den Entwicklungsergebnissen anderer Hersteller bedienen kann, wird vielfach als hohes Gut angesehen. Manchmal möchte man nur auf einer Ebene einer mehrstufigen Produkt-Hierarchie konkurrieren. Es wird dadurch neuen Herstellern der Markteintritt erleichtert. Dass dadurch oft die Sicherheit der Nutzer beeinträchtigt wird, ist ein offenes Geheimnis. Steve Jobs setzte daher lieber auf geschlossene Systeme und war damit äußerst erfolgreich.
  2. Verschleierte Kosten: Die an Hochschulen übliche kostenlose Nutzung aller Investitionen in Geräte- und Netzkapazitäten wurde im Internet weitgehend als Modus übernommen. Dies läd zur massenhaften Verbreitung von Nachrichten und Informationen geradezu ein. Der Nutzer muss sich selbst gegen SPAM schützen. Dass dadurch das Geschäftsmodell ganzer Branchen (wie das der Verlage) gefährdet wird, wird achselzuckend in Kauf genommen. 
  3. Schadsoftware: Es wird sehr oft erst im Nachhinein darauf reagiert, dass es Nutzer gibt, die mittels Malware (Viren, Trojaner, Würmer, Phishing) ihre Ziele zu erreichen versuchen. Finanzanwendungen sind besonders gefährdet.
  4. Überwachung: Je stärker die Möglichkeiten der Kommunikation sind, desto größer wird die Gefahr gesehen, dass staatliche Institutionen oder private Organisationen diese nutzen, um die Bevölkerung zu überwachen oder zu manipulieren. Leicht wird hier auch ein zu negatives Bild gemalt.
  5. Energiekosten: Der Energieverbrauch elektronischer Geräte ist unverhältnismäßig hoch. Es wird geschätzt, dass etwa 10% des Stromverbrauchs Deutschlands auf Informatik-Geräte fällt. Als Entwurfsziel kam die Energieersparnis erst sehr spät zur Geltung. 
  6. Abfall: Die meisten Informatik-Geräte sind einer schnellen technischen Alterung unterworfen. Sie tragen damit zur Abfallschwemme bei.
Welche Gegenmaßnahmen zur Verfügung stehen, um sich gegen diese Gefahren abzusichern, soll hier nicht näher diskutiert werden.

Samstag, 11. Februar 2017

Philosophisches Geplänkel

In diesem Blog kamen auch hin und wieder philosophische Themen vor. Meist erfolgte die Anregung durch Freunde oder Leser. So ist es auch jetzt. Im Folgenden skizziere ich meine Interpretation einiger längst vergangener philosophischer Strömungen in Europa, wohl wissend, dass dies nicht unwidersprochen bleibt. Danach folgen einige weitere Bemerkungen über den möglichen Einfluss von Philosophen. Ergänzungen und Kommentare zu diesen Ausführungen sind erwünscht!

Philosophie-Geschichte

Der Französische Rationalismus (FR) wurde in die Welt gesetzt durch René Descartes (1596-1650) und später unter anderem von Gottfried Wilhelm Leibniz (1646-1716) vertreten. Die Auffassung des FR lässt sich vereinfacht wie folgt ausdrücken: Entweder gibt uns der Verstand eine Antwort, oder es gibt keine. Räsonieren wurde zum Modewort auch in den gebildeten Kreisen Deutschlands. Es bedeutete so viel wie ‚sorgfältig argumentieren‘ und basiert auf dem französischen Wort ‚raison‘, das sowohl für Verstand wie für Vernunft steht. (Man beachte die Feinheiten!) Heute hat ‚räsonieren‘ längst den Beigeschmack von nörgeln und motzen. Leibniz, ein gebürtiger Sachse aus Leipzig, hatte seine Begegnung mit dem FR während seiner Zeit im Dienste des Trierer (oder Mainzer) Bischofs in der Trierer Botschaft in Paris (1672-1676). Dort demonstrierte er seine Rechenmaschine und erfand nebenbei das duale Zahlensystem. (Beides hatte 270 Jahre später Einfluss auf den jungen Konrad Zuse.)

Der Angelsächsische Empirismus (AE), vertreten durch David Hume (1711-1776), sieht in der Sinneswahrnehmung die einzige Quelle der Erfahrung und damit des Wissens. Gefühlen und gedanklichen Einflüssen gegenüber sollte man vorsichtig sein, will man objektives und neues Wissen erwerben. Der Preuße Immanuel Kant (1724-1804) versuchte eine Brücke zu bauen zwischen AE und FR mit seinem (kantschen) Transzendentalismus (KT). Kant nimmt an, dass immer A-priori-Wissen erforderlich ist, um die Erfahrung zu leiten. 

Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind. Der Verstand kann nichts anschauen, die Sinne nichts denken. ... Der Verstand ist auf mögliche Erfahrungen beschränkt. Die Vernunft ist transzendent. ... Die Vernunft arbeitet architektonisch; sie sucht ein System.

So schrieb er 1781 in der Kritik der reinen Vernunft. Nach Kant ist dieses Wissen von außen, vermutlich von einem höheren Wesen vorgegeben. Die Grenze des Individuums wird transzendiert, also überschritten. Neben dem Verstand postulierte Kant im Gehirn des Menschen noch ein zweites Organ, Vernunft genannt. Wie ein Reiter auf einem Pferd, so sitze die Vernunft obendrauf und lenke (‚managt‘) den Verstand. Der Verstand schuftet so gut er kann, um mit den Sinneserfahrungen fertig zu werden. So wie Pferde ihren Reiter abwerfen können, so versuche der Verstand manchmal ohne die Vernunft auszukommen. Die Folgen sind meist eher unerfreulich.

Meine Einschätzungen und Vorlieben

Ich neige am ehesten zu AE (oh Wunder!). FR ist mir zu trocken und zu streng, KT ist zu gekünstelt. So frage ich die KT-Anhänger, wo wohl ein Baby oder Kleinkind sein A-priori-Wissen herhat. Ich bin überzeugt, dass auch Begriffe, also Denkstrukturen, ein Ergebnis früherer Erfahrung sein können. Schon beim Kleinkind arbeitet der Verstand und verarbeitet Sinneseindrücke. Verarbeiten heißt, alles in Gruppen oder Kategorien einzuordnen, was ähnlich aussieht oder ähnliche Eigenschaften hat. Das scheinen Kinder ohne fremde Hilfe zu tun. Die dazugehörigen Bezeichnungen oder Worte übernehmen sie anschließend von den Erwachsenen des Sprachraums, insbesondere auch von Altersgenossen  ̶  sofern diese (schon) welche haben. Wo soll das berühmte ‚moralische Gesetz in uns‘, das in Form des Gewissens auch im heutigen Rechtssystem verankert ist, herkommen, wenn nicht von der Gesellschaft, d.h. von andern Menschen? So fragen heute diejenigen, die weniger dem Idealismus zugeneigt sind als Kant. Soweit ich weiß, konnte die Gehirnforschung Kants Vorhersagen bisher auch noch nicht bestätigen.

Immerwährende Aufklärung

Wie kein anderer der hier erwähnten Philosophen machte Kant die Aufklärung zu seinem Anliegen. In seinem zwölfseitigen Text Beantwortung der Frage: Was ist Aufklärung? von 1784 schrieb er:

Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt, u.s.w., so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen. Daß der bei weitem größte Teil der Menschen (darunter das ganze schöne Geschlecht) den Schritt zur Mündigkeit, außer dem daß er beschwerlich ist, auch für sehr gefährlich halte: dafür sorgen schon jene Vormünder, die die Oberaufsicht über sie gütigst auf sich genommen haben.

Man könnte meinen, Kant hätte etwas gegen Leute, die sich zu sehr an Bücher klammern oder die sich von Meinungsforschern oder (Unternehmens-) Beratern beeinflussen lassen. Dass er von Frauen eine etwas antiquierte Meinung hat, sei ihm verziehen. Bei Zeitgenossen, ja bei ganzen Kulturkreisen fragt man sich, ob oder warum sie bisher der Aufklärung entgehen konnten. Der arabische Raum scheint ein eklatantes Beispiel zu sein.

Eigentlich ist die Situation viel schlimmer. Fast gewinnt man den Eindruck, dass in vielen Kreisen und Gesellschaften, in denen das Gedankengut der Aufklärung eine feste Heimat gefunden hatte, die Dinge sich rückwärts entwickeln. In einigen Ländern, so in den USA, finden gerade Leute politisches Gehör, die sich öffentlich von der wissenschaftlichen Denkweise distanzieren. Wie weit dieser Trend geht und wie lange er anhält, ist eine der spannendsten Fragen unserer Zeit.

Philosophisches Quartett

Es gibt zurzeit zwei deutsche Philosophen, die wie keine andern es versuchen, die Philosophie aus ihrer akademischen Abgeschlossenheit heraus unter das breite Volk zu bringen. Es sind dies Peter Sloterdijk und Jürgen Safranski. Ihre Sendungen lassen sich bei Youtube immer wieder ansehen. Sehr empfehlen kann ich die Sendung mit dem Titel: Ist die Welt noch zu retten? Darin sind Franz-Josef Radermacher und Harald Welzer die beiden andern Gesprächspartner. Den Informatiker Radermacher brauche ich nicht vorzustellen. In seinem Interview in diesem Blog stellte er seine Initiativen wie die der Ökosozialen Marktwirtschaft und des Globalen Marshallplans vor. Ganz überrascht war ich dieser Tage, als ich vom Bundesentwicklungsminister Gert Müller hörte, dass er sich von Radermachers Ideen inspirieren lässt. Müller arbeitet derzeit sehr intensiv mit den Ländern der Sahelzone zusammen, um ihnen zu helfen, Perspektiven zu entwickeln, damit junge Menschen im Lande bleiben können, anstatt als Flüchtlinge ihr Heil in Europa zu suchen. Wenn Donald Trump mal wieder die Klimaschützer verhöhnt, muss ich an den Kollegen Radermacher denken. Das kann ihn nicht freuen.

Der Soziologe Welzer sieht die Entwicklungen erheblich kritischer als Radermacher. Er meint, dass  ‚der gegenwärtig praktizierte Lebensstil unserer Gesellschaft durch hypertrophes Wachstum seine eigenen Voraussetzungen konsumiere‘. Wer von beiden eher Recht hat, ist schwer zu ermitteln. Ist ein Warner erfolgreich, dann hat er oft selbst mit dazu beigetragen, dass seine Vorhersagen sich als falsch erwiesen. Jedenfalls ist es beruhigend, dass die Vorhersagen des Soziologen Thomas Robert Malthus (1766-1834) sich nicht genau so zu erfüllen scheinen wie vorhergesagt. Er hatte angesichts der Bevölkerungsexplosion (Maltusianische Falle genannt) eine Verarmung Englands vorhergesagt.

Weltveränderer und Ideologen

Philosophen (und auch Soziologen) waren schon immer bemüht, die Welt zu erklären. Einer von ihnen (Karl Marx aus Trier) wollte sie sogar verändern. Beides ist ihnen nicht zu 100% gelungen. Man kann das als Nachteil oder als Vorteil ansehen  ̶ ganz nach Standpunkt. Die Schwierigkeiten, die Weltveränderer manchmal hatten, ergaben sich daraus, dass die Welt nicht so war, wie sie glaubten, dass sie sei. Typischerweise scheiterten sie an der Psyche ihrer Mitbürger. Auf der gefühlsmäßigen Ebene der Menschen können Dinge eine Rolle spielen, die vom Verstand her nicht zu erklären sind. Man wird sich dessen immer mehr bewusst. Selbst anzunehmen, dass der Verstand zweier Menschen jeden Sachverhalt gleich erkennt und gleich bewertet, ist bereits sehr gewagt. Auch unter Philosophen gibt es Schulen und Schüler. Oft grenzen sie sich voneinander ab, indem sie sich gegenseitig der Ideologie bezichtigen.

PS. Dass die Stadt Trier hier mehrmals erwähnt wird, wird nur die Leserinnen und Leser überraschen, die nicht wissen, dass dies die Heimatstadt des Autors ist. Etwas Werbung für die Region sei mir gestattet. Übrigens, das Wort Geplänkel stammt aus dem Militärischen. Im übertragen Sinne ist es ein Wortgefecht von geringer Dauer.