Freitag, 28. Juni 2013

Levantinische Denkweisen von Milet bis zur Wall Street

In dem Beitrag überschrieben ‚Von Milet nach Toledo‘ gab ich meine Version der abendländischen Geistesgeschichte zum Besten. Ich glaubte, ich hätte so etwas wie eine kohärente Erzählung, eine Story. Wie man sich doch täuschen kann. Selten erschien es, als ob zwei oder drei Bücher eines Autors ausgereicht hätten, um mein Weltbild total zu verändern. In diesem Falle ist es mein Geschichtsbild. Mir ist schon lange klar, dass Geschichte nichts anderes ist als eine Erzählung. Wie oft habe ich schon meine Zuhörer überrascht, wenn ich Teile der abendländischen Geschichte geringfügig anders erzählte, als sie in den Geschichtsbüchern stand, die während meiner Jugend in der Schule benutzt wurden. Dieser Blog enthält eine Reihe von Kostproben in Form historischer Essays.

Ein bekannter Grund dafür, warum Geschichte immer sehr einseitig erzählt wird, ist die Tatsache, dass sie (fast) immer von den Siegern erzählt wird. Fast jedes Jahrhundert kannte geistige oder meistens auch blutige Auseinandersetzungen. Meistens gab es Unterlegene, die oft glücklich waren, dass man sie überhaupt am Leben ließ. Alle Erzählungen, wie viel besser die Argumente (und die Streitkräfte) der Sieger waren, blieben meistens unwidersprochen. Eng damit zusammen hängt der regionale Blickwinkel. Viele Bekannte, die aus andern Teilen Deutschlands stammen als ich, wundern sich manchmal über die von mir benutzte Sichtweise der deutschen Geschichte. Ein typisches Beispiel ist die Rolle Preußens. Dass ein Rheinländer oder Bayer kein besonderer Verehrer preußischen Heldentums ist, wird oft als Kuriosität empfunden.

Was mir innerhalb Deutschlands durchaus geläufig war, hatte ich (fälschlicherweise) nicht beachtet, was die abendländische Geschichte anbetraf. Die geistigen und militärischen Sieger des Abendlandes waren bekanntlich zuerst auf der griechischen Halbinsel und in Kleinasien die Griechen gegen die Perser, dann auf dem italienischen Stiefel und im östlichen Mittelmeer die Römer gegen die Phönizier (besser bekannt als Karthager), dann weiter im Westen wieder die Römer jetzt gegen die Gallier und Germanen. Erst seit Karl dem Großen (und Alkuin von York) etablierten sich die Germanen im westlichen Europa als die kulturellen Sieger. Sie schauten zunächst nur nach Rom, bis dass einige Jahrhunderte später auch die Welt der Griechen wiederentdeckt wurde. An Phönizier und Perser dachte zunächst kaum jemand mehr, von Ägyptern, Indern und andern Kulturen ganz zu schweigen.

Levante

Die drei Bücher, die ich im Folgenden besprechen werde, wurden in New York geschrieben. Der Blick auf die Welt und auf die Weltgeschichte erfolgt jedoch immer wieder von der Levante aus. Die Levante ist die Ostküste des Mittelmeers. Es ist die ursprüngliche Heimat der Phönizier. Die Phönizier hatten Niederlassungen, sowohl an der kleinasiatischen Nordküste, wie an der afrikanischen Südküste des Mittelmeers. Nach dem Untergang Karthagos breitete sich zuerst das Griechentum unter Alexander dem Großen in diesen Gebieten aus. Später waren es die Römer, vor allem zurzeit von Kaiser Augustus. Sowohl Griechen wie Römer hatten Kontakte zu den Ägyptern. Es entstanden Zentren der Hochkultur, zuerst in den phönizischen Städten Byblos, Sidon und Tyros, danach in Alexandrien und Antiochien und schließlich in Byzanz, dem späteren Konstantinopel.

Das Oströmische Reich mit seiner Hauptstadt Konstantinopel bestand bis ins 15. Jahrhundert. An seine Stelle trat für etwa 400 Jahre das Osmanische Reich. Beide, Ostrom und die Hohe Pforte, waren keine Nationalstaaten, sondern Imperien bestehend aus einem Vielvölkerverbund. Eines der wirtschaftlichen Zentren, sowohl Ostroms wie des Osmanischen Reiches, war die Levante. Erst nach dem Ersten Weltkrieg wurde das Gebiet zunächst zwischen den Einflusszonen Englands im Süden und Frankreichs im Norden aufgeteilt. Aus dem englischen Teil gingen die heutigen Staaten Ägypten, Saudi Arabien, Jordanien, Palästina und Israel hervor. Aus dem französisch dominierten Teil gingen Syrien und der Libanon hervor.

Autorprofil

Der Autor, um den es im Folgenden geht, heißt Nassim Nicholas Taleb (*1960), und ist gebürtiger Libanese. Er stammt aus einer alten christlichen Politiker- und Diplomatenfamilie. Er verließ seine Heimat, um in den USA zu studieren. Er blieb nach dem Studium dort und wurde unter anderem Derivatehändler an der Wall Street. Nach langer Durststrecke erwies sich die Finanzkrise von 2008 als seine große Gewinnchance. Seither ist er wirtschaftlich unabhängig. Zurzeit ist er Professor an der New York University und an der London Business School. Taleb spricht fließend Englisch, Französisch und Arabisch. Außerdem beherrscht er Italienisch, Spanisch, Griechisch, Latein, Hebräisch und Aramäisch.

Literarischer Durchbruch

Das Buch, mit dem der Autor 2008 bekannt wurde, hatte den Titel ‚Der Schwarze Schwan‘. Taleb benutzte darin ein auf den schottischen Philosophen David Hume (1711-1776) zurückgehendes Bild, um klarzumachen, dass Induktion keine sichere Schlussweise ist. Selbst wenn man Tausende weiße Schwäne gesehen hat, ist das kein Beweis, dass es nur weiße Schwäne gibt. Aber nur ein einziger schwarzer Schwan reicht aus, um die Existenz schwarzer Schwäne zu beweisen. (Inzwischen hat man schwarze Schwäne in Tasmanien beobachtet.) Taleb versteht unter einem schwarzen Schwan ein unvorhersehbares, seltenes Ereignis, das wir aber nicht ausschließen können. Sein Standardbeispiel ist die Lehman-Pleite und der nachfolgende Börsenzusammenbruch. Taleb nennt die Denkweise, die keine schwarzen Schwäne zulässt, auch die Truthahn-Logik. Ein Truthahn, der von seinem Metzger gemästet wird, hält diesen mit zunehmender Sicherheit für ein ihm freundlich gesinntes Wesen. An Thanksgiving kommt die Überraschung. Kein Truthahn überlebt, um andere zu warnen. Ein Börsianer darf nicht so tun, als ob es keine schwarzen Schwäne gibt. Generell kann man Daten nutzen, um eine Behauptung zu entkräften, jedoch niemals um sie zu beweisen.

Erstlingswerk

Das erste Buch dieses Autors heißt ‚Narren des Zufalls‘. Es erschien im Jahre 2001. Darin vertritt der Autor die Meinung, dass der  Einfluss von Glück oder Zufall auf unser Leben und unsere Anlageentscheidungen meist unterschätzt wird. Während Glück von erfolgreichen Menschen oft als eigenes Geschick interpretiert wird, halten sie die Rolle des Zufalls für Bestimmung. Solche Menschen seien glückliche Narren. Er will sie nicht loswerden. Sie sollten sich nur dieser Tatsache bewusst werden. Er selbst gehöre oft dazu. Wie Daniel Kahnemann, der aus derselben Weltgegend (Israel) stammt, nachwies, können wir Menschen mit Zufall nicht gut umgehen. Wir versuchen alles zu rationalisieren, meistens rückwirkend. Von dem was Kahneman kognitive Verzerrungen nennt, sieht Taleb vor allem die narrative Verzerrung am Werk. Bei Kahneman hieß es dazu:

Wir versuchen immer aus der Vergangenheit eine kohärente und kausale Geschichte zu machen. Wir überschätzen unser Wissen über die Welt. Wir bemühen uns die Vergangenheit zu verstehen und weigern uns, Zufall als dominierend anzuerkennen.

Dabei machen wir sehr oft Rückschau-Fehler, d.h. wir beurteilen die Vergangenheit mit Wissen von heute. Genau wie Kahneman ist Taleb der Meinung, dass unser Gehirn nicht mit Wahrscheinlichkeiten umgehen kann. So halten fast alle Leute ein Erdbeben in Nordamerika für ein geringeres Risiko als ein Erdbeben in Kalifornien, wohlwissend dass Kalifornien ein Teil Nordamerikas ist.  Ein Toter durch die Vogelgrippe erregt mehr Aufsehen als der Tote durch einen Verkehrsunfall, obwohl letztere wesentlich häufiger sind. Man bewertet Risiken oft rein emotional. Taleb ist der Ansicht, dass Kahneman (und sein verstorbener Kollege Tversky) das wirtschaftliche Denken der Welt bereits mehr beeinflusst haben als John Keynes und Milton Friedman zusammen.

Griechisches Erbe

Taleb hält viele der Grundideen, von denen der Westen sich leiten ließ, stärker von Utopien geprägt als von echtem Weltverständnis. Der Grund: Das Abendland wurde von dem ‚dogmatischen Rationalismus‘ des hellenistischen Zeitalters geprägt, ein Thema, das auch im neuen Buch Talebs eine große Rolle spielt (siehe unten). Eine Drillform, die das Denken besonders kujonierte, nannten sie Logik. Dieses Erbe führte dazu, dass wir für Symbolismus anfällig wurden. So glaubten einige, dass Nasenkratzen ausreichen würde, um Regen herbeizuführen. Oder anders gesagt, für viele Menschen ist eine schlechte Erklärung besser als keine. Europa hatte eine Chance heil über die Runden zu kommen, hätte man auf Montaigne (1533 – 1592) statt auf Descartes (1596 – 1650) gehört. Danach suchte man nur noch nach der Maschine im Menschen.

Die Geschichte lehrt uns, dass Dinge, die nie zu geschehen scheinen, doch geschehen. Diese ‚seltenen Ereignisse‘ widerlegen die Annahme, dass sich die Natur  oder die Wirtschaft kontinuierlich entwickeln. Sie lassen sich aus Zeitreihen nicht vorhersagen. Seltene Ereignisse mögen eine geringe Wahrscheinlichkeit haben. Sie ist jedoch > 0. Man muss sich auch gegen sie absichern, sonst kommt es zu Katastrophen (engl. Blow ups). Bevor die Aufklärung übernahm, verfügte die Menschheit nur über Heuristiken, also eine Art von Trickkiste. Ganz langsam beginnt der Westen einzusehen, dass man mit Logik allein nicht alle Probleme lösen kann. Andere Kulturen haben dies nie behauptet. Zwei Beispiele, die eindeutig in diese Richtung zeigen, werden mit den Begriffen Pfadabhängigkeit und Netzwerk-Effekt beschrieben. Das eine bedeutet, dass historische Fakten in Betracht gezogen werden, das andere berücksichtigt psychologische Gegebenheiten.

Der Philosoph Karl Popper, mit dem wir uns auch in diesem Blog beschäftigt haben, hat den Autor sehr beeinflusst. Popper habe der Wissenschaft ihre absolutistische Autorität genommen. Nach ihm sind Theorien nie richtig. Sie sind entweder schon falsifiziert oder noch zu falsifizieren. Den Ausführungen Poppers zum Trotz nehmen wir dennoch die Wissenschaft viel zu ernst. Popper unterlief der Fehler, dass er annahm, dass die Falsifikation immer fehlerfrei ist.

Meisterwerk

Das dritte Buch mit dem Titel ‚Antifragilität‘ betrachtet der Autor als sein Meisterwerk. Es umfasst 668 Seiten und erschien im Jahre 2012. Der Titel ist eine Wortschöpfung, abgeleitet von fragil, also zerbrechlich. Das Buch fasst quasi sein Weltwissen zusammen. Es ist eine Abrechnung mit Allem, was schlecht ist, und Allen, die ihm zuwider sind. Es beginnt im Altertum und endet in unseren Tagen. Dazwischen gibt es, wie schon in den anderen Büchern, autobiografische Einlagen. Dass wir Europäer so denken, wie wir es tun, gehe auf die altgriechischen Klassiker (Platon, Aristoteles) und deren Interpreten, die Araber, zurück. Deren Sichtweise habe uns nicht nur genutzt.

Thales von Milet

Schon am Beispiel des Thales von Milet (um 624 – 547 vor Chr.) sei eine ganz eindeutige Verfälschung nachweisbar. Ich bringe diese Geschichte ausführlich, weil sie besser als alle anderen die Botschaft des Buches verdeutlicht. Thales war phönizischer Abstammung. Während seine Freunde alle als Händler erfolgreich waren, hänselten sie ihn, weil er eine brotlose Kunst betreibe, das Philosophieren. Thales rückte die Dinge daraufhin kurz zurecht. Er kaufte Optionen (bitte den Begriff merken!) auf alle Ölmühlen in Milet und der vorgelagerten Insel Chios. Als im darauffolgenden Jahr die Olivenernte besonders ergiebig ausfiel, nahm er die Option wahr. Er wurde daraufhin ein reicher Mann und konnte für den Rest des Lebens Philosophie betreiben. Soweit Talebs Version der Geschichte.

Was ist uns armen Abendländern bezüglich dieser Geschichte überliefert worden? Antwort: Nur was in das Weltbild der griechischen Klassiker passte. Es gibt zwei Versionen. In der einen halfen die Götter. In der andern Version, die Aristoteles erzählte, war es die Wissenschaft. Thales sei in der Lage gewesen, das Wetter der Region (aus den Sternen) und damit die Olivenernten vorherzuberechnen. Das kann aber heute noch niemand (!). Dass es Zufall war, wird einfach ausgeschlossen, bzw. uminterpretiert.

Lehre der Stoa

Talebs Lebensregeln erinnern an die Philosophie der Stoiker. Immer wieder bezieht er sich auf Seneca (1 - 65 n. Chr.). Es sei entschuldbar, dass man Erdbeben, Tsunamis, Revolutionen usw. nicht vorhersagen kann. Es sei jedoch nicht entschuldbar, so zu bauen oder zu tun, als ob es sie nicht gäbe. Besser als zu versuchen Habgier auszulöschen, sei es die Wirtschaft so umzubauen, dass Habgier ihr nichts anhaben kann. Man darf sich nicht verschulden, weder gegenüber anderen Leuten, noch gegenüber dem Schicksal. Besitz schafft Asymmetrie. Man wird dadurch gegen Verlust empfindlicher als gegen entgangenen Gewinn. Man muss sich geistig von Besitz lösen, ebenso wie von Emotionen. Man muss Furcht in Klugheit umwandeln, Schmerz in Information. Fehler, die man macht, sollte man als Chancen sehen, als Anstöße zum Lernen. Reichtum sei der Sklave des Weisen und der Herrscher des Narren.

Grenzen des Wissens

Fast ebenso stark argumentiert er gegen eine Überbetonung des Wissens und der Wissenschaftlichkeit. Was nicht messbar und vorhersagbar ist, bleibt es, egal wie gut die Mathematik ist, die wir beherrschen. Ein System, das auf der Notwendigkeit beruht, Wahrscheinlichkeiten berechnen zu können, muss zusammenbrechen. Der direkte Weg von der Wissenschaft zur Technik und dann in die Praxis wurde als Ideal von Francis Bacon (1561 – 1626) propagiert. Es funktionierte bisher nur ein einziges Mal, nämlich beim Bau der Atombomben. Nach dieser Logik müsse die Mathematik in Verbindung mit der Ornithologie den Vogelflug zustande gebracht haben. Manche Wissenschaftspublizisten versuchen,  ̶  in analogen Fällen  ̶  den Laien einzureden, dass es nur so und nicht anders gewesen sein kann. Dass Bildung Wohlstand zur Folge habe sei ein Epiphänomen, d.h. nicht kausal erklärbar. Es sei eher umgekehrt. Als Beispiele nennt er Ägypten für hohe Bildung bei niedrigem Wohlstand, und die USA mit niedriger Bildung bei hohem Wohlstand.

Hanteln und Handeln

Sowohl an der Börse wie im Leben allgemein gelte der Grundsatz: Überleben geht vor Gewinnen. Das ist ein elementares Beispiel von Pfadabhängigkeit. Daher empfiehlt er für alle Formen von Anlagen eine so genannte Hantel-Strategie. Man legt die Gewichte nicht in die Mitte, sondern an die beiden Enden. Übersetzt in die Investor-Sprache: Man soll nicht alles auf das mittlere Risiko setzen; lieber einen Teil auf ein geringes Risiko und einen Teil auf ein hohes. Die Gefahr, dass man alles verliert, ist dann geringer. Bei einer Hantel werden Fragilitäten (siehe unten) entfernt. 


Auch Montaigne habe eine Hantelstrategie verfolgt. Bei ihm hieß sie: Zuerst handeln, dann reflektieren. Volatilität im Markt ist eine Form von Unordnung. Manchen Menschen widerstrebt es, sich Unordnung auszusetzen. Alles Nicht-Lineare ist entweder konvex oder konkav je nach Intensität des Stressors. Wir können die Funktion f(x) manipulieren, auch wenn wir x nicht kennen. Wir können beides ‚behanteln‘, d.h. uns dagegen wappnen. Immer wieder lässt er jüdische Spruchweisheiten einfließen, etwa diese: Triff Vorsorge für das Schlimmste; das Beste erledigt sich von selbst.
  
Bei Thomas von Aquin stehe der Satz, der Handelnde bewege sich nie ohne Ziel. Als Quelle gibt Thomas jedoch korrekterweise nicht Aristoteles an, sondern dessen arabischen Interpreter Ibn Rushd (Averroes). Taleb nennt dies die Touristen-Strategie. Ein Tourist folgt immer seinem Plan. Das Gegenstück sei der Flaneur. Der verändert laufend seine Ziele auf rationale Art. Er ist nicht Gefangener seines Planes. Immer wieder wird Steve Jobs zitiert. Hier ist es der Satz: Menschen wissen nicht, was sie wollen, bevor man es ihnen gibt. Jobs war für ihn eine Lichtgestalt in der ansonsten unverstandenen Geschäftswelt, dazu noch mit levantinischen Vorfahren.

Optionen als Geschäft

Was den USA bisher zum Erfolg verhalf, sind nicht ihre Rohstoffe oder ihre Wissenschaft.  Es sei die Tatsache, dass sie besser als andere Länder wüssten, was Optionalität ist und wie man mit ihr umgeht. Thales von Milet, der oben erwähnt wurde, erwarb eine Option auf Olivenpressen. Optionen sind asymmetrisch. Sie sind ein Recht, aber keine Pflicht. Vor allem benötigt man kein Wissen über die Zukunft. Man muss nur in der Lage sein, günstige Resultate zu erkennen, und zwar in dem Moment, in dem sie eintreten. Die Kosten des Irrtums sind bekannt und klein.


Als einfache Formel ausgedrückt, kann man sagen: Option = Asymmetrie + Rationalität. Optionen sind Ersatz für fehlendes Wissen. Sie sind die beste Waffe der Antifragilität. Wie in der Grafik dargestellt, ist der Zusammenhang zwar nicht-linear, aber konvex. Die Enden der Kurve zeigen nach oben. Der Verlauf im negativen Bereich ist strikt limitiert, nicht jedoch der positive Teil. Die Asymmetrie zwischen Vor- und Nachteilen ist klar erkennbar. Je mehr Unsicherheit herrscht, desto stärker kann eine Option sich auswirken.

Triade der Widerstandsfähigkeit

Der Kern des Buches ist die Beschreibung einer ‚Triade‘ von Eigenschaften, die Strukturen, Dinge oder Unternehmungen haben können. Die relevanten Eigenschaften sind:
  • Fragil: Sie erleiden Schaden durch Fehler, Störungen oder Variabilität
  • Robust: Sie sind unempfindlich gegenüber Fehlern, Störungen oder Variabilität
  • Antifragil: Sie profitieren von Fehlern, Störungen oder Variabilität
Was mit dem Schlagwort Risiko-Management beschrieben wird, habe im Allgemeinen wenig Substanz. Es ist nämlich wenig sinnvoll, sich über Risiken Gedanken zu machen. Diese liegen nämlich stets in der Zukunft. Sie sind uns daher verborgen. Ebenso falsch ist es, nur in der Vergangenheit zu suchen. Alle aus der Vergangenheit abgeleiteten Schlussfolgerungen sind Induktionsschlüsse. Sie sehen keine seltenen Ereignisse vor, keine schwarzen Schwäne. Besser ist es sich auf die Feststellung der obigen Eigenschaften zu konzentrieren. Diese kann man hier und heute untersuchen. Die Triade liefere Hinweise, was man tun kann, um in einer Welt zu leben, die wir nicht verstehen.

Lebensweisheiten

Vieles, was die Länge des Buches ausmacht, sind Weisheiten allgemeiner Art. Er hat sie außer bei Stoikern (wie Seneca) noch bei Nietzsche, Wittgenstein, Jobs oder Yogi Berra (dem Coach der NY Yankees) gefunden. Einige, die mir besonders gefielen, seien herausgegriffen: 
  • In der Theorie gibt es keinen Unterschied zwischen Theorie und Praxis. In der Praxis schon. (Yogi Berra)
  • Vielleicht gibt es ein Reich der Weisheit, aus dem der Logiker verbannt ist. (Nietzsche)
  • Unsere Sprache ist nicht in der Lage die Wirklichkeit auszudrücken. (Wittgenstein)
Mehrere Themen, die er behandelt, liegen außerhalb seines Erfahrungsbereichs. Seine Aussagen sind dennoch interessant und beachtenswert. Das gilt z.B. für die Evolution. Sie bewege sich durch richtungslose, konvexe ‚Bricolage‘ (deutsch: Heimwerken) vorwärts, durch robustes Tüfteln, durch wiederholte, kleine, lokal begrenzte Fehler. Das sei das Gegenteil von dem, was die Wissenschaft betreibe, wenn sie top-down vorgehe. Aus dem Gedankengut der levantinischen Heilkunde stammt der Begriff der 'via negativa' (deutsch: negativer Weg). Etwas wegzunehmen sei meist besser als etwas hinzufügen. Fasten könne oft nützlicher sein als Essen. Die moderne Medizin ignoriere zu leicht die Selbstheilungskraft der Natur. Man solle einen Arzt nicht unter Druck setzen, für jedes kleine Übel gleich ein Medikament zu verschreiben. Oft helfe dies lediglich der Pharma-Industrie.

Zeitkritik

Seitenweise wettert er gegen Neomanie. Das ist die Leidenschaft für das Moderne um seiner selbst willen. Sein Motto heißt, was lange bestanden hat, hat bewiesen, dass es gut ist. Deshalb empfiehlt er griechische und römische Autoren. Gerne lasse er alles weg, was es bei seinen Vorfahren nicht gab. Je älter eine Technologie ist, desto länger würde sie sich halten. Eine Technologie existiert nämlich informationell, nicht physisch. Im Gegensatz zum Menschen altert sie nicht organisch. Bei allen Techniken, die in die Natur eingreifen (wie die Gentechnik), sieht er die Beweislast bei denen, die etwas Neues machen. Die Mutter Natur wisse nämlich mehr als wir Menschen. Dass er sich mit papiernen Büchern wohler fühlt als mit E-Books, ist schon fast schrullig [Ich las keines seiner Bücher auf Papier]. Völlig überraschte mich, dass er am Schluss geradezu Gift und Galle in Richtung einiger anderer Autoren verspritzt, so auf Thomas Friedman und Joseph Stiglitz.

Fazit und Plädoyer

Das Buch ist eine vehemente Anklage gegen 'Fragilisten' aller Art: unkündbare Beamte, Wissenschaftler, Journalisten, den Teil des medizinischen Establishments, der vor allem die Pharma-Industrie unterstützt. Noch streichen Banker weiterhin Boni ein für den Teil der Geschäfte, der Gewinne abwirft. Der Steuerzahler trägt immer noch die Verluste. Die Idee eines Rückhol-Bonus hat sich nicht durchgesetzt. Viele Banker benutzen verborgene Optionen auf Kosten der Firma oder der Gesellschaft. Wir benötigen Politiker, die Verantwortung für das Gemeinwohl übernehmen, Wissenschaftler, die sich zu ihren Fehlschlägen genauso bekennen wie zu ihren Erfolgen und Journalisten, die nicht nur durch Sensationen Aufmerksamkeit erheischen, sondern ehrlich informieren. Wir benötigten Alltagshelden, die sich für andere opfern und die bei ihren Unternehmungen die eigene Haut aufs Spiel setzen. Von ihnen hängt die Antifragilität einer Gesellschaft ab, nicht von Bankern, 
Kritikern, Spekulanten oder Drohnenlenkern.


Nachbemerkung am 29.6.2013:

Im vorangehenden Text habe ich nicht immer klar zum Ausdruck gebracht, was Talebs Meinung und was meine Meinung ist. Das ist nicht weiter schlimm. Im Zweifelsfall kann man annehmen, dass unsere Sicht nicht allzu verschieden ist.

Zufällig las ich dieser Tage einige Seiten in Josef Werles Seneca für Zeitgenossen. Der folgende Satz fiel mir auf: "Mit dem fünfzigsten Jahre begebe ich mich in den Ruhestand. Mit dem sechzigsten mach' ich mich frei von jeder amtlichen Tätigkeit". Nassim Taleb scheint dies fast gelungen zu sein. Mit Interesse las ich auch die Biografie Senecas. Es ist erschütternd, wie das Leben mit ihm umsprang. Er war reich, hatte Zugang zum römischen Kaiserhaus und wirkte als Erzieher des jugendlichen Nero. Nachdem dieser erwachsen war, zeigte sich dessen Wahnsinn. Zuerst ließ er seine Mutter Agrippina ermorden. Anschließend erteilte er den Befehl, dass Seneca Selbstmord verüben müsse. Die Macht von Senecas Worten hat seinen Körper jedoch bereits mehr als 2000 Jahre überlebt. Ähnlich erging es Senecas Zeitgenossen Jesus von Nazareth.

Samstag, 22. Juni 2013

Informatisches Denken als Teil der Allgemeinbildung

In dem Beitrag über Informatik in Schulen wurde der Begriff ‘Computational Thinking’ kurz erwähnt. Obwohl ich ihn dort quasi als bekannt voraussetzte, möchte ich hier erneut darauf eingehen. Der Ausdruck wurde im Jahre 2006 von Jeannette Wing in ihrem Artikel in den Communications der ACM (Vol. 49,3) geprägt. Das war vor sieben Jahren. Ich habe in Deutschland einen einzigen Vortrag gehört, der darauf einging (Barbara Paech 2010 in Stuttgart). Wahrscheinlich liegt dies aber an mir.

Das Thema selbst passt in den Rahmen dessen, was ich bereits zweimal diskutierte. Da mir ein Kollege einen Bericht über eine Tagung in den USA schickte, die zum zweiten Mal das Thema behandelte, habe ich mich auch noch einmal damit befasst. Bei den Zitaten, die folgen, mache ich etwas völlig Ungewöhnliches. Ich übersetze auch den für die USA neuen Fachbegriff ins Deutsche. Das Recht dazu nehme ich mir, weil wir mit dem Wort Informatik einen Begriff haben, um den die Amerikaner uns nur beneiden können. Manche unserer amerikanischen Kollegen sind nämlich die Spöttelei der Astronomen leid. Zu sagen, man betreibe ‚computer science‘ klänge doch so, als ob Astronomen sagen würden, dass sie sich mit ‚telescope science‘ befassten. Das Wort Informatik hat diese Konnotation nicht.

Sicht der Jeanette Wing

Beginnen möchte ich mit einem übersetzten Zitat. Im Gegensatz zum englischen Original fällt dabei einiges ins Gewicht, was wir im Deutschen kaum so sagen würden.

Informatisches Denken ist eine grundlegende Fähigkeit für alle Menschen, sie ist nicht nur für Informatiker wichtig. Neben Lesen, Schreiben und Rechnen sollten wir informatisches Denken zu den analytischen Fähigkeiten eines jeden Kindes hinzufügen. So wie die Druckerpresse die Ausbreitung der drei Rs [Abkürzung für engl. Reading, (W)Riting, (A)Rithmetic] erleichterte, so ist die Vision angemessen, dass Rechnen und Rechner die Ausbreitung des informatischen Denkens erleichtern. Informatisches Denken umfasst die Lösung von Problemen, die Entwicklung von Systemen, und das Verständnis menschlichen Verhaltens, indem sie diese auf die grundlegenden Konzepte zurückführt, auf denen die Informatik aufbaut. Informatisches Denken umfasst eine Reihe von geistigen Werkzeugen, die die ganze Breite der Informatik reflektieren.

Die Diskussion in Deutschland scheint mir dadurch gekennzeichnet, dass man zu den Gedanken von Jeannette Wing auf Distanz geht. Anscheinend trauen wir Informatiker uns nicht, den Philologen und Psychologen zu sagen, wie Kinder denken lernen sollen. Dabei ist es höchstens ein einziger Punkt im obigen Zitat, an dem wir uns stören sollten, nämlich dass Informatik Mittel dazu liefert oder bereit hält, um das Verhalten von Menschen zu verstehen. Vielleicht gibt es sogar auf dieser Seite des Atlantiks einige Kollegen, die Jeannette Wing in diesem Punkte Recht geben. Ich gehöre nicht dazu.

Wie andere Autoren vor und nach ihr, ringt Jeannette Wing damit zu erklären, was es ist, was die Menschheit von Informatikern lernen kann. Nach ihrer Meinung besteht die Welt der Informatiker aus Problemen, für deren Lösungen Algorithmen oder  ̶  genauer gesagt  ̶  künstlich herbeigeführte Prozesse in Frage kommen. Dass überall im Leben Prozesse eine Rolle spielen, liegt auf der Hand. Das Wort ist zu allumfassend. Es gibt Prozesse in der Astronomie, Physik, Chemie und Biologie, aber auch in Gesellschaften, vor Gericht, in der Technik und im Geistesleben.

Informatiker haben als Erstes verstanden, dass man Prozesse, um sie zu verstehen, von vielen Dingen befreien muss. Abstrahieren nennen das einige Kollegen. Der tatsächliche oder der abstrahierte Prozess muss dann beschrieben werden. Informatiker nennen das Spezifikation. Manchmal wird das Präfix ‚Ist‘ oder ‚Soll‘ dazugeschrieben. Wer das tut, bringt zum Ausdruck in welcher Richtung er die Beweisverpflichtung sieht. Im Falle der Ist-Spezifikation besteht die Beweispflicht zwischen Realität und Beschreibung. Im Falle der Soll-Spezifikation gibt es eine doppelte Unsicherheit. Einmal muss die Spezifikation die eigentliche Absicht des Autors darstellen, zum Zweiten muss das erzeugte Produkt, also der neue Prozess, der Spezifikation entsprechen. Mit dieser Problematik haben Informatiker fast immer zu kämpfen. Im einen Falle spricht man von Validierung, im andern von Verifizierung. Ähnlich wie in der Erkenntnistheorie Poppers gibt es nur Programme, für die Fehler bekannt sind, und solche, für die keine mehr bekannt sind. Das Debugging ist nie zu Ende. Auch viele Informatiker haben Probleme, dies zu verstehen.

Jeannette Wing hebt hervor, wie sehr Ingenieurdenken in der Informatik eine Rolle spielt. Informatiker fragen nämlich, ob ungefähre Lösungen gut genug sind, und ob negative oder positive Suchfehler oder Fehlalarme vorliegen. Rekursive Denkansätze können helfen, oder Parallelverarbeitung. Daten können Typen repräsentieren, mehrere Namen können dasselbe Objekt bezeichnen. Programme können außer, dass sie einen falschen Algorithmus richtig oder einen richtigen falsch darstellen, noch andere Fehler haben. Es kann zwar funktional richtig (im doppelten Sinne, d.h. bezogen auf die eigentliche Absicht oder auf die Spezifikation), aber ineffizient oder unelegant sein.

Komplexe Aufgaben werden in Teilaufgaben zerlegt und die Lösungen zusammengefügt. Modularisieren ist enorm wichtig, nicht nur wegen der Aufteilung der Entwicklung, sondern auch um Optionen zu gewähren. Wir vertrauen einem komplexen System, ohne es im Detail zu verstehen. Für jede Aufgabe gibt es eine andere optimale Darstellung. Die für das Verständnis geeignete Struktur kann auch für die Arbeitsaufteilung hilfreich sein. Im Hinblick auf die Laufzeit ist oft eine andere Struktur optimal als für das Verständnis und die Entwicklung. Laufzeit kann durch zusätzlichen Speicher erkauft werden und umgekehrt. Man kann Dinge vorab berechnen oder jedes Mal neu, usw. usw.

Informatiker denken bezüglich Prävention, Schutz und Wiederherstellung in Worst-Case-Szenarien. Sie versuchen Schadensbegrenzungen und Fehlerkorrekturen durch Redundanz zu erreichen. Informatiker denken mit Hilfe von Heuristiken, um zu einer Lösung zu kommen. Sie planen Lernen ein und berücksichtigen Unsicherheit. Die wichtigste Operation ist Suchen, Suchen und nochmals Suchen. Man erhält Listen von Lösungen, auch Treffer genannt, und muss diese bewerten, d.h. in eine Ordnung bringen.

Jeannette Wing wendet sich nicht nur an Informatiker, sondern an alle Fachgebiete, insbesondere an Pädagogen. Zum Schluss schreibt sie.

Statt zu jammern, dass zu wenig Leute Informatik studieren, sollten die Professoren der Informatik einen Kursus für alle Studienanfänger anbieten mit dem Titel "Wie Informatiker denken". Wir sollten alle Studierenden den Methoden und Modellen der Informatik aussetzen. Statt zu klagen über den Rückgang des Interesses an der Informatik oder den Rückgang der Mittel für die Forschung in der Informatik, sollten wir das Interesse der Öffentlichkeit wecken und sie für das intellektuelle Abenteuer Informatik begeistern. Wir würden so die Faszination, den Respekt und die Allmacht der Informatik bekannt machen, mit dem Ziel informatorisches Denken alltäglich zu machen.

Hierzu muss sagen, dass im Gegensatz zu Deutschland in den USA die Studentenzahlen in Informatik weiter im Fallen sind. Fast glaube ich, dass uns europäischen Informatikern der Mut fehlt, so für unser Fach zu werben, wie es Jeannette Wing tat. Vielleicht benötigen wir dazu eine mutige Frau. Sollte sie ausländischer oder gar asiatischer Abstammung sein, vielleicht würde das sogar helfen.

Heutige Situation

Die erwähnte Tagung in den USA im Jahre 2010 befasste sich mit den pädagogischen Aspekten des ‚Computational Thinking‘. An ihr nahmen eingeladene Experten verschiedener Fachgebiete teil. Physiker, Biologen, Journalisten und andere. Mehrere Themen klangen an. Immer wieder hieß es, man benötige eine bessere Definition, um was es genau ginge, und möglichweise eine Fortschreibung dieser Definition, wenn sich die Informatik weiterentwickele. Drei Werkzeuge wurden ausführlich vorgestellt, nämlich Scratch, Globaloria und Storytelling Alice. Davon war mir nur Scratch bisher bekannt. Auch kam die allseits bekannte Klage vor, dass es ein großes Problem sei, im Lehrplan Platz zu finden.

Informatiker als Werkzeugmacher

Einer der Teilnehmer (P. Henderson) wies darauf hin, dass es bereits lange vor Jeannette Wing Informatiker gab, die über die Besonderheit ihres Faches nachdachten. Als Beispiel wurde Fred Brooks genannt mit dem Beitrag: „Computer Scientist as Toolsmith“, den er anlässlich der Verleihung des Allen Newell Awards der ACM im Jahre 1996 (CACM 39,3) hielt. Brooks war damals noch wesentlich bescheidener, aber nicht weniger aussagekräftig. Bei ihm scheint seine lange Industrie-Erfahrung durchzuscheinen.

Brooks betonte unter anderem den Unterschied zwischen einer Naturwissenschaft und einer Ingenieurdisziplin. Die Wissenschaft bemühe sich um die Entdeckung neuer Tatsachen und Gesetze. Der Ingenieur habe das Ziel, etwas Nützliches zu konstruieren. Brooks fasste den Unterschied in seinem berühmt gewordenen Satz zusammen: Der Wissenschaftler baut, um zu studieren, der Ingenieur studiert, um zu bauen. Informatik sei teils Naturwissenschaft, vor allem aber eine Ingenieurdisziplin. Ihr Gegenstand sind Computer, Algorithmen und Software-Systeme. Im Gegensatz zu anderen technischen Disziplinen sind viele unserer Produkte physikalisch nicht greifbar, so z. Bsp. Algorithmen, Programme und Software-Systeme. Seinen forschenden Kollegen gab er damals folgende Ratschläge:
  • Die akademische Forschung soll sich an relevante Probleme wagen, nicht nur an Übungen oder Spielzeug-Probleme.
  • Wir sollten ehrlich über Erfolg und Misserfolg reden, so dass wir uns nicht so leicht etwas vormachen.
  • Wir sollten immer das ganze Problem im Blick haben, nicht nur die leichten oder die mathematischen Teile.
  • Der Blick auf das ganze Problem wiederum zwingt uns dazu, zu lernen oder neue Informatik-Lösungen zu entwickeln, oft in Bereichen, die wir sonst nie angesprochen hätten.
Fred Brooks war mein Bereichsleiter während meiner Abordnung zur IBM in Poughkeepsie, N.Y. Nach seinem Wechsel an die University of North Carolina habe ich ihn einmal in Chapel Hill, N.C., besucht. Danach traf ich ihn immer wieder bei Fachtagungen.

Historischer Querbezug

Ein anderer Teilnehmer der Tagung (U. Wilensky) hatte eine schöne historische Analogie für den Einfluss neuer Notationen auf das Denken der Menschen: Vor der Einführung der arabischen Ziffern sei es so gut wie unmöglich gewesen, Multiplikationen und Divisionen durchzuführen. Das war etwa um das Jahr 1000 unserer Zeitrechnung. Sich vorzustellen, dass man bis dahin keine Flächenberechnungen machen konnte, fällt uns schwer. Wer mehr dazu wissen möchte, kann meinen Essay zu Gerbert d’Aurillac oder Papst Silvester II. lesen. Es sind solche Querbeziehungen zwischen meinen Interessengebieten, über die ich mich immer wieder freue.

Am 23.6.2013 schrieb Hartmut Wedekind aus Darmstadt:

Seit PISA muss man akzeptieren, dass Pädagogik, und damit auch ihre methodische Komponente, die Didaktik, zu einem empirischen Fach geworden ist, in dem ein messbarer Nachweis verlangt wird.


Wer also über „Computational Thinking“ als  einen neuen Beitrag zur Allgemeinbildung nachdenkt, sollte sich Gedanken machen, wie ein Test für diese vierte Spalte [neben Lesen, Naturwissenschaft und Mathematik] aussehen sollte. Der Entwickler einer solchen vierten Testreihe wird feststellen, dass Diverses, was er einbringen will, schon längst von den drei anderen  Testreihen abgedeckt wurde. Die PISA-Spezialisten werden sagen „Im Westen nichts Neues“.

Wie wäre es, wenn die im Westen, vor allen Dingen auch die USA (letztes Drittel in Mathematik in der PISA-Reihenfolge), mal darüber nachdenken, wie eine qualitative Verbesserung in den klassischen drei Spaten erzielt werden kann, bevor man einen neue vierte Spalte hinzufügt. Qualität geht bekanntlich vor Quantität.

Wie wäre es z.B., wenn man sich zwecks Qualitätsverbesserung an einer „Logischen Propädeutik“ orientieren würde und Pädagogik nicht nur empirisch, sondern auch rational, d.h. konstruktiv begreifen würde. Das wäre doch mal etwas Aufregendes. Eine „Logische Propädeutik“, wohlgemerkt, ist spaltenübergreifend.


Donnerstag, 13. Juni 2013

Forschung oder Entwicklung – was hat Priorität?

Neulich schrieb mir ein Kollege, den ich an sich sehr schätze, aber nicht nennen möchte: ‚Da Sie, wie ich Ihrem Blog entnehmen konnte, Informatikforschung als überflüssig ablehnen, müssen Sie konsequenterweise auch das Publizieren für überflüssig halten. Zu dieser konsequenten Haltung kann ich Sie nur beglückwünschen.‘ Anstatt nur zu sagen: ‚Sie verstehen mich falsch, lieber Kollege‘, möchte ich etwas ausholen und außerdem meine Antwort öffentlich geben. Vermutlich bezog sich der Kollege auf den Beitrag vom 18. Februar 2011 mit dem Titel ‚Forschen ist wichtig, darf jedoch nicht überfordert werden‘. Dort hatte ich unter anderem geschrieben:

Forschung – so heißt es − vermehrt das Wissen, das wir benötigen, um unsere Welt immer besser zu verstehen. Schaden kann das sicher nicht. Ob es aber die beste Art ist, die (beschränkten) geistigen und finanziellen Ressourcen eines Landes einzusetzen, das darf hinterfragt werden. 

Nichts von dem, was ich damals sonst noch geschrieben hatte, möchte ich heute verändern. Ich möchte nur einige Punkte ergänzen oder vertiefen. Ich will nochmals versuchen, meine Sicht näher zu erklären. Ob ich jemanden überzeugen kann, steht auf einem andern Blatt. Genau genommen, habe ich darauf wenig Einfluss.

Forschung

So wie unser akademische System heute ausgelegt ist,  ̶  zumindest im Umfeld derjenigen Fachgebiete, zu denen auch die Informatik gehört  ̶  kann ein junger Mensch sich für eine wissenschaftliche Laufbahn nur qualifizieren, wenn er durch Forschungsleistungen hervorsticht. Nicht nur steht diese Tätigkeit hoch im Ansehen der Gesellschaft [im Fernsehen vergeht kein Tag, an dem ‚Forscher‘ nicht dieses oder jenes festgestellt haben], die Ergebnisse können schön, beeindruckend, ja revolutionär sein. Die Ergebnisse vieler, jedoch nicht aller Forschungsarbeiten kann man nur sichtbar machen, indem man in ‚angesehenen‘ Journalen oder auf ‚anerkannten‘ Fachtagungen veröffentlicht. In dieser Bewertung der Situation stimme ich allen meinen akademischen Kollegen voll zu. Zu definieren, was bei Fachzeitschriften als ‚angesehen‘ und bei Tagungen als ‚anerkannt‘ gilt, überlasse ich gerne den Akademikern. Übrigens bemüht sich die GI gerade darum, für die Akademiker unter ihren Mitgliedern, hier etwas für Klarheit zu sorgen. Zu hoffen ist, dass Informatiker bei der Darstellung ihrer Ergebnisse die ‚neuen Medien‘ wie Fernsehen und Internet nicht ganz vergessen.

Zur Klarstellung möchte ich zwei Punkte hinzufügen. (1) Nicht nur das, was vom Steuerzahler finanziert wird, ist ernst zu nehmende Forschung. Auch die private Wirtschaft, sei es der Fahrzeugbau oder die Chemie, betreibt Forschung. Das Ergebnis wird allerdings nicht danach bewertet, in welchem Fachorgan es publiziert wurde. Was Hochschulen als Forschung verstehen, dient meist vorwiegend der Karriere-Pflege des wissenschaftlichen Nachwuchses. Es ist wirtschaftlich und technisch oft uninteressant bzw. irrelevant (siehe unten). (2) Die wichtigste Veröffentlichungsform für Forschungsergebnisse mit technischer Relevanz  ̶  man spricht dann meistens von Erfindungen  ̶  sind die Patentanmeldungen. Wer dies nicht glaubt, sollte sich beim Fachinformationszentrum (FIZ) Karlsruhe erkundigen, welche ihrer Datenbanken am meisten benutzt werden. Hier führen nämlich die Patent-Datenbanken mit großem Abstand. Jede deutsche Fachzeitschrift wäre stolz, bekäme sie einen Bruchteil dieser Leserschaft, von den Einnahmen ganz zu schweigen. Davon könnte Springer alle seine Informatik-Zeitschriften bequem finanzierten. [Die GI ist übrigens Gesellschafterin des FIZ Karlsruhe].

Entwicklung

Der Schritt, der erforderlich ist, um aus einer Idee ein Produkt oder eine Dienstleistung zu erzeugen, heißt Entwicklung. Auch dieses Verständnis sollte man ruhig beibehalten. Die Hochschulen haben satzungsgemäß auf diesem Gebiet nichts zu suchen. Dass eine Fachgesellschaft, die in Anspruch nimmt, nicht nur die Hochschulen zu vertreten, sich bei diesem Thema trotzdem schwer tut, ist sehr bedauerlich. Nach einer ersten 5-jährigen Testphase hat die GI sich nur mit Mühe dazu durchringen können, wenigstens über das Thema Entwicklung auf ihrer Jahrestagung fünf Minuten lang zu reden. Ich meine die Verleihung des Innovationspreises der GI, durch den zum ersten Mal keine Schreibarbeiten ausgezeichnet werden, sondern einzelne Produkte oder Dienstleistungen. Mit meinem Vorschlag, die Orientierung der GI weiter in Richtung Entwicklung zu lenken, fand ich keine Zustimmung. Kriterien für ein für GI-Mitglieder wichtiges ‚Informatik-Produkt des Jahres‘ zu definieren, überfordert offensichtlich alle Kolleginnen und Kollegen, die in der GI das Sagen haben. Wie heißt es so schön: Da könnte man sich möglicherweise die Finger schmutzig machen oder sogar verbrennen. Falls man als Ordinarius Angst hat, sich durch Unwissen zu blamieren, könnte man in diesem Falle die jüngeren Mitarbeiter bitten, die Auswahl zu treffen.

Was ich leider immer wieder ins Gedächtnis meiner Hochschul-Kollegen zurückrufen muss, sind fast Plattitüden. Für einen Entwickler sind Publikationen in Fachzeitschriften und auf Tagungen wirklich sekundär. Sie bedeuten bestenfalls zusätzliche Werbung unter Nicht-Fachleuten. Man sichert sich seine Priorität an Ideen nicht durch Publikationen in Fachzeitschriften, sondern durch ein Produkt. Ist das Produkt im Markt verfügbar, dann kann einem niemand mehr mit einer darin verwirklichten Idee zuvorkommen. Man ist dadurch allerdings nicht gegen Nachahmer geschützt. Will man dem vorbeugen, muss man die Erfindung durch ein Patent schützen lassen. Geht man diesen Weg, ist eine Vorab-Veröffentlichung schädlich. Als Entwickler muss man nicht unbedingt wissen, was die Mitbewerber für unwichtig halten, also veröffentlicht haben. Man muss jedoch wissen, was sie für so wichtig halten, dass sie es geschützt haben. Wer sagt, dass Zeitschriften wichtig sind, hält Entwickler für unwichtig.

Zwischenformen zwischen Forschung und Entwicklung

Wir müssen leider davon ausgehen, dass sich an der generellen, von der Mathematik stark beeinflussten Ausrichtung der Informatik in Deutschland so schnell nichts ändert. Daher könnte es sinnvoll sein, über Zwischenformen zwischen Forschung und Entwicklung nachzudenken. Eine wäre, es Hochschulen zu ermöglichen, Prototypen für Produkte und Dienstleistungen zu erstellen. Sie müssten mehr Geld bekommen als bisher, um auch Feldtests mit echten Benutzern durchführen zu können.

Dabei stoßen wir sehr schnell an eine Grenze, speziell was Forschung in der Informatik selbst (manchmal auch Kerninformatik genannt) betrifft. Je weiter man die Forschung in Richtung Entwicklung treibt, umso kritischer wird es, dass industrielle Partner vorhanden sind, die aus dem Prototypen ein Produkt machen. Es gibt zwar in der Folklore den Spruch vom Prototypen, der als Produkt ausgeliefert wurde. Nur in den seltensten Fällen geht dies gut. Am besten ist es, Kooperationen mit der Industrie so früh wie möglich zu starten. Dabei sollte dies sich nicht darauf beschränken, von der Industrie nur Geld zu nehmen. Sollte in einem solchen gemeinsamen Projekt öffentliches Geld eingesetzt werden, sollte die Industrieseite sich verpflichten, das Ergebnis in die eigene Entwicklungsarbeit einfließen zu lassen. Der Fall, dass es keine verwertbaren Ergebnisse gibt, könnte dennoch Anlass für eine Publikation werden, sofern jemand den Mut hat, das Scheitern zu analysieren.

Anpassung des Bewertungssystems

Langfristig ist es vorstellbar, dass sich die Informatik mit ihrer Zwitterrolle zwischen Ingenieurwesen einerseits und Betriebswirtschaft und Mathematik andererseits besser zurechtfindet. Man könnte dann, auch für die akademische Qualifikation Entwicklungsleistungen zur Anerkennung mitheranziehen. Ich weiß dies zwar nicht genau. Ich gehe jedoch davon aus, dass bei Architekten auch seine Design-Leistung bewertet wird, nicht nur seine Literaturstudien. Wieweit Erfindungen und andere technische Leistungen heute überhaupt bei Berufungen von Informatikern eine Rolle spielen, ist mir unklar.

Ganz entscheidend für ein (teilweise) technisches Fachgebiet wie die Informatik ist jedoch, dass es sich von der Überbetonung von Zeitschriften und Tagungen freimacht. Das primäre Medium für technische Veröffentlichungen ist (und bleibt) der Patentantrag. Ich hatte Kollegen in der Software-Entwicklung mit zehn und mehr erteilten Patenten, aber null Veröffentlichungen in Fachzeitschriften. Sie bildeten die Elite, denen andere Mitarbeiter nachstrebten. Dass die Rolle von Software-Patenten in Europa immer noch umstritten ist, bewies der Deutsche Bundestag erst vor einer Woche. Er verabschiedete eine Erklärung, die darauf abzielt, Software-Entwicklungen in Deutschland unmöglich zu machen. Dass die Software-Industrie diese Diskussion längst hinter sich gelassen hat, habe ich in einem früheren Blog-Eintrag nachgewiesen. Selbst das Beispiel, das die Fraunhofer-Gesellschaft (mit MP3) gegeben hat, scheint die Hochschulen nicht zu beeindrucken. Sie konzentrieren sich weiterhin auf die Generierung von ‚nicht-schützenswerten‘ Ideen. Man verzeihe mir diese Verdeutlichung.

Verallgemeinerte Sicht

Woran unsere Gesellschaft als Ganzes noch eine Weile zu kauen hat, ist die Überwindung der in der Vergangenheit von Geisteswissenschaftlern (einschließlich Theologen) dominierten Weltsicht. Seit Darwin müssen sie anerkennen, dass die belebte Natur sich nach Gesetzen entwickelt, die weder bei Aristoteles noch bei Thomas von Aquin zu finden waren. Die von C. P. Snow erkannte Zweiteilung der Kulturen war erst ein Zwischenschritt. Noch traut sich der Homo faber, der zum Ingenieur mutierte Handwerker, nicht den Mund aufzumachen. Die Philosophen (und Theologen) sind zwar auf dem Rückzug, nicht jedoch Physiker und Mathematiker. Viele Physiker beschäftigen sich vorwiegend mit esoterischen Fragestellungen (Multiversen, symmetrischem Zeitpfeil und dgl.). Besonders talentierte Mathematiker versuchen die Goldbachsche Vermutung zu widerlegen oder suchen nach der größtmöglichen Primzahl. Die Computer, die man für solche Aufgaben einsetzen kann, können nicht groß genug sein.

Dabei ist die Welt voller  Probleme, die man angehen sollte, bevor die Naturwissenschaften die letztgültige Erklärung gefunden haben. Der Homo faber kann bereits tätig werden, bevor das letzte Welträtsel gelöst ist. Er baute elektrische Maschinen, bevor klar war, in welcher Richtung der Strom fließt. Er sieht seine Aufgabe nicht darin, die Welt zu erklären, sondern darin, die Existenz des Menschen zu erleichtern. So lange man sagt, Wissenschaft ist Wissenschaft, egal mit was sie sich beschäftigt, wird diese Einsicht nicht durchbrechen. Es scheint fast so, als ob es Leute gäbe, die ein Interesse daran haben, dass alles beim Alten bleibt, von denen man dies eigentlich nicht erwarten würde. Viele Informatiker, die ich kenne, scheinen dazu zu gehören.

Meine Antwort

Nach diesen Ausführungen wage ich es, die im Titel enthaltene Frage eindeutig zu beantworten. Wenn immer es gelingt, ein offensichtliches Problem der Menschheit zu lösen, spielt dabei Forschung nur eine untergeordnete Rolle. Wir müssen nicht wissen, warum etwas funktioniert. Es reicht aus, bekannte Heuristiken anzuwenden. Es muss aber jemand bereit und in der Lage sein, eine Lösung zu konstruieren. Konstruieren ist ein anderes Wort für Entwickeln. Wer jedoch sagt, Entwickeln ist trivial oder eine Sache für Geringqualifizierte, weiß nicht wovon er spricht. Dass es nicht den Nimbus hat, den Forschen hat, ist eine Fehlleistung unserer Gesellschaft, die ihr schon lange teuer zu stehen kommt. Die deutsche Informatik hat sich seit der Einführung des universitären Studiums in dieser Rille verfangen.

Diese hier angegebene Priorität, d.h. Entwickeln vor Forschen, gilt auf vielen Gebieten. Sie gilt für den Deichbau, also das Eindämmen von Wassermassen, aber auch für die Behebung von Schäden, die von Unwettern oder Erdbeben angerichtet wurden. Sie gilt vor allem für die Eindämmung von Pandemien, die Bekämpfung von Dürren und Hungersnöten und sogar für die Lösung von sozialen und politischen Konflikten.

Zusammenfassung

Forschung kann keinen sich selbsttragenden Arbeitsplatz schaffen. Entwickeln auch nicht. Es kommt der Sache jedoch viel näher. Läuft das Projekt nämlich wie es soll, hat man etwas in der Hand, das möglicherweise einen Bedarf befriedigt. Wer nicht in der Lage ist zu entwickeln, sei es aus rechtlichen, intellektuellen oder aus Kapazitäts- oder Motivationsgründen, für den ist Forschen eine Alternative. Forschen kann sehr interessant sein, ja manchmal sogar spannender als die Entwicklung.

Um meine Freunde unter den Akademikern zu beruhigen, möchte ich hinzufügen, wenn ich von Priorität rede, meine ich kein Entweder-Oder, keine Exklusion (engl. exhaustive or preemptive priority). Es geht nur darum zu sagen, wohin im Zweifelsfall das Pendel ausschlagen sollte. Es ist dasselbe Wunschdenken, das ich im anderen Beitrag dieser Woche so ausdrückte: 

Uns fehlen die kreativen Macher. Vermutlich schenken wir denjenigen Leuten zu wenig Anerkennung, die bereit sind, Verantwortung zu übernehmen oder sogar ein Risiko einzugehen. Unser Ideal ist zu sehr der kontemplative Theoretiker und nicht der zerstörende Innovator. 

Wenn ich diese Idee mit bekannten Namen verknüpfe, dann stehen mir ein Heinz Nixdorf, Bill Gates und Steve Jobs geistig näher als ein Immanuel Kant, Alan Turing oder Jacques Derrida. Etwas Amerika ist mir lieber als zu viel Europa.

Sonntag, 9. Juni 2013

Weg mit der Informatik aus den Schulen! – eine europa-weite Diskussion

Erst vor vier Wochen machte ich mir Gedanken zu dem Thema ‚Informatik als Allgemeinbildung‘. Es war dies innerhalb eines Essays über Bildung allgemein. Das Thema ist halt ein Dauerbrenner. Immer wieder gibt es Aufrufe oder Neudefinitionen des Problems. Gerade in den Wochen, die seither vergingen, nahm die Diskussion regelrecht Fahrt auf. Das Thema hat Konjunktur.

Um die Diskussion etwas einzugrenzen, muss man sagen, dass es hier nicht direkt, sondern nur indirekt um den Fachkräfte-Mangel geht. Das ist nämlich ein ähnlicher Dauerbrenner. In dieser Hinsicht gilt noch alles, was ich in diesem Blog am 1. August 2011 sagte. Es gibt einen Zusammenhang derart, dass man glaubt die Weichen möglichst früh stellen zu müssen. Wenn alle Leute sich nur für Kunst und Soziologie interessieren, wird es im Verhältnis dazu nur wenige Leute geben, die sich entschließen Ingenieur oder Informatiker zu werden.

Summende Drähte im Internet

Früher hätte man gesagt, man beachte das Rauschen im Blätterwald. Da aktuelle Themen sich nicht die Zeit nehmen, die papierne Medien beanspruchen, ist es besser das Internet zu verfolgen. Das trifft dann besonders zu, wenn es Themen sind, die über unser Land hinausgehen. Überraschenderweise kommt nämlich keine der Initiativen, die ich gleich erwähnen werde, aus Deutschland. Zuerst meldete sich Informatics Europe (IE) und ACM Europa noch im April 2013. Die Initiatoren dieser Aktivität sind zwei alte Bekannte: Bertrand Meyer in Zürich und Carlo Ghezzi in Mailand. Danach kam ein Papier, das von der französischen ‚Académie des Sciences‘ im Mai 2013 vorgelegt wurde. Beide benutzen den Begriff ‚Computational Thinking‘, der auf die Amerikanerin Jeanette Wing zurückgeht. Letzte Woche stieß ich auf ein Interview, das Carl August Zehnder der Neuen Zürcher Zeitung (NZZ) am 3. Juni 2013 gegeben hatte. Auch er ist ein alter Bekannter. Der neueste Medienbeitrag, den ich erwähnen möchte, ist eine Glosse in der NZZ vom 7. Juni 2013. Sie hatte die Überschrift ‚Herumtüfteln unter der Haube‘. Am Schluss heißt es dort:

Weg mit der Informatik,… weg mit dieser Technik-Euphorie, weg mit diesem sklavischen Respekt vor allem, was Hardware und Software ist. Was fehlt, ist nicht «Computational Thinking», sondern die Bereitschaft zuzupacken, eine Hacker-Mentalität, der Mut, Gehäusedeckel abzumontieren, unter die Haube zu schauen, einzugreifen in das Räderwerk, die Freude am Herumtüfteln.

Obwohl es sich hier eindeutig um eine übertriebene Darstellung handelt, liefert sie mir einen schönen Einstieg. Das Wort Informatik und die entsprechenden Studiengänge gibt es in Deutschland jetzt seit rund 50 Jahren. Als es Ende der 1960er Jahre aufkam, hatte Deutschland außer den Niederlassungen amerikanischer, englischer und französischer Firmen auch ein halbes Dutzend deutsche DV-Firmen. Heute gibt es noch zwei bis drei Software-Firmen, die weltweit tätig sind (SAP, Software AG), sowie einen Hardware-Entwickler (IBM). Alle übrigen Firmen unserer Branche sind reine Importeure (Apple, Microsoft, Adobe, Corel) oder reine Service-Anbieter (wie Facebook und Google). Die Branche insgesamt hat weltweit einen Aufschwung erzielt, der als phänomenal gelten muss. Informatik ist in aller Munde. Manche Leute bevorzugen allerdings die englische Bezeichnung: Ei-Tie. Nur zur Klarstellung: Die Informationstechnik (IT) ist die frühere Nachrichtentechnik.

Die Informatiker, die seit 20 Jahren in größerer Zahl die Hochschulen verlassen, möchten  ̶  wie in einem früheren Beitrag ausgeführt  ̶  am liebsten zu den oben genannten Informatik-Firmen gehen, sie sind jedoch gezwungen in der Mehrzahl zu Anwender-Firmen (Autoindustrie, Chemie/Pharma, Finanzwirtschaft, Verkehr, öffentliche Verwaltung) zu gehen. Diese nehmen, was sie bekommen können, auch wenn der Betreffende gelernt hat auf alles herabzusehen, was praktische Relevanz hat.




Zurück zur allgemeinen, primär akademischen Diskussion. Die Studie der französischen Akademie der Wissenschaften übertrifft  ̶  wie zu erwarten  ̶   alle anderen erwähnten Stellungnahmen an Gründlichkeit der Vorbereitung und fachlicher Schlagkraft. Nur zwei der genannten Autoren sind mir namentlich bekannt: Serge Abiteboul und Maurice Nivat. Der vorliegende Bericht basiert auf ähnlichen Arbeiten aus den Jahren 2007 und 2010 und fasst Diskussionen der letzten zwei Jahre zusammen. Der Adressat ist die breite Öffentlichkeit, insbesondere die nationale Politik. Durch diese Zielrichtung erklärt sich, warum sehr viel Mühe darauf verwandt wird, klar zu machen welche Bedeutung die Informatik für Wirtschaft und Gesellschaft hat. Die Empfehlungen betreffen alle Ausbildungsstufen vom Kindergarten (Ecole maternelle) bis zur Universität (college, lycée). Auffallend ist, dass das wirtschaftspolitische Ziel im Vordergrund steht, nämlich Frankreichs Rolle vom Konsumenten von Informatik-Produkten und Informatik-Dienstleistungen wieder zu einem Lieferanten für den Weltmarkt zu machen. In diesem Falle verdient es der französische Text, ihn sich auf der Zunge zergehen zu lassen.

Un enseignement aussi limité ne saurait permettre de faire basculer notre pays de l’état du consommateur de ce qui est fait ailleurs à celui du créateur du monde de demain. (Eine derart beschränkte Ausbildung würde es nicht gestatten, dass unser Land vom Zustand des Konsumenten dessen, was anderswo gemacht wird, zum Schöpfer der Welt von Morgen wechselt)

Natürlich wird auch die digitale Kluft (engl. digital divide; frz. fracture numerique) angesprochen, die man vermeiden möchte. Es geht daher sowohl um fachliche Ausbildung wie um die Allgemeinbildung. Diese Zweiteilung, auf die ich später noch zurückkomme, wird im Englischen durch die Begriffe ‚Digital literacy‘ (frz. alphabetisation numerique) und ‚Professional training‘ auseinander gehalten. Die Stufen des Lernens gehen von der spielerischen Erkundung (frz. découverte) über die Gewinnung von Fertigkeiten (frz. acquisation de l’autonomie) bis zu konsolidiertem Wissen und Können (frz. consolidation du savoir et du savoir-faire). Die Haupt-Forderung an die Politik ist auch bei uns altbekannt: Man sollte bei dem Mangel an Informatik-Lehrern endlich Abhilfe schaffen. Über das Wie lässt man sich nicht aus. Möglicherweise hieße die Antwort: MOOC. Die akademische Schlagseite des Berichts kommt zum Ausdruck, wenn es heißt, dass in Frankreich die Forschung gut sei, nur mit der Industrie sei nichts los.

Europäischer Chorgesang

Mit derartigen Schuldzuweisungen gibt sich der Bericht von IE und ACM zum Glück nicht ab. Er leistet insofern einen echten Beitrag, indem er genau benennt, was man heute zur Allgemeinbildung (engl. digital literacy) rechnen solle. Ich liste die wichtigsten auf: mittels Tastatur schreiben, Texte und andere Dokumente mit Bildern verfassen, diese speichern und Ordnern zuordnen, über die Eigenschaften verschiedener Dateitypen Bescheid wissen, im Netz suchen können, E-Mails lesen und versenden können, in sozialen Netzen präsent sein, die Rechte der anderen Nutzer und die Gefahren kennen, die von Betrügern ausgehen.

Ein Fortschritt wird darin gesehen, dass man stärker differenziert. Nicht alles ist mehr Informatik. Die eine Hälfte fällt jetzt unter Anwender-Kompetenz. Nur noch die Entwickler-Kompetenz gehört zur Informatik. Bekanntlich wird diese vielerorts jedoch wie eine abstrakte Kunst behandelt. Nicht die Technologie-Beherrschung wird als entscheidend angesehen, sondern die ergonomische Anmutung, die ‚Human factors‘, und die soziale Unbedenklichkeit. Viele Leute lernen Informatik nicht wie Musiker die Musik, sondern wie ein Kritiker und Musiktheoretiker.

Übrigens leistet der als Leitmotto zitierte englische Bildungsminister einen zweifelhaften Dienst. Er verniedlicht die Informatik. Er meint, dass bald 11-Jährige Grafikanwendungen schreiben und 16-Jährige Apps für Smartphones. Damit verunsichert er junge Menschen. Warum soll ich in dieser Situation Informatik studieren? Was bleibt da noch für Erwachsene zu tun? Es ist dies dieselbe schiefe Vorstellung, als wenn man sagen würde: Jeder, der englische (oder genauer lateinische) Buchstaben schreiben kann, kann Fachbücher oder Bestseller schreiben.

Alphorn oder Kuhglocken

Kollege Zehnder überrascht mich mit zwei Dingen. Das eine ist die Aussage, dass in den 1980er Jahren die Welt noch in Ordnung war. In der Tat setzte seit 1980 eine Kommodifizierung der Informatik ein. Was davor ein Beruf für Spezialisten war, wurde zur Kompetenz eines Halbstarken. Die Konsequenzen habe ich in dem Abschnitt davor erläutert. Kollege Zehnder wird gefragt, was man in dem jetzt schon übervollen Stundenplan der Pennäler weglassen soll, um Informatik-Stunden unterzubringen. Er verkneift es sich, diese Frage zu beantworten. Das ist die typische Reaktion aller Experten seit 50 Jahren. Sie schienen zu glauben, dass dies nicht auffällt. Auf eine mögliche Lösung hatte ich vor vier Wochen hingewiesen. Es geht nur, wenn man auch Nicht-Informatiker an der Diskussion beteiligt.

So verrückt das Zitat aus der NZZ-Glosse klingt, es enthält einen Kern Wahrheit. Wie groß dieser Kern ist, darüber darf gestritten werden. Vielleicht ist es nur ein frustrierter Informatik-Nutzer, der jammert. Dann interpretiere ich seine Aussage so, dass es diesem Journalisten helfen würde, wenn er mit weniger Schwierigkeiten Leute finden könnte, die ihm tagtäglich weiterhelfen. Vorrang vor jeder akademischen Diskussion sollte die Frage haben, wie man mehr Leute dazu bringt, sich praktischen Aufgaben zu widmen und bereit zu sein, anderen Leuten ihre Dienste anzubieten. Eine zweite mögliche Interpretation wäre die folgende: Sofern der Autor ein detaillierter Kenner unseres Fachgebiets und der Mentalität seiner Wortführer ist, könnte es sein, das er sagen will: Uns fehlen die kreativen Macher. Vermutlich schenken wir denjenigen Leuten zu wenig Anerkennung, die bereit sind, Verantwortung zu übernehmen oder sogar ein Risiko einzugehen. Unser Ideal ist zu sehr der kontemplative Theoretiker und nicht der zerstörende Innovator. Wenn dem so ist, wäre Europa nicht mehr zu helfen, auch wenn wir unsere finanziellen Mittel für Bildung verzehnfachen würden.

Fazit und Ausblick

Deutschland scheint, was diese Diskussion betrifft, dem übrigen Europa etwa fünf Jahre voraus zu sein (unter anderem dank Peter Hubwieser von der TU München). Nach der Diskussion innerhalb der zuständigen Fachgesellschaft, der Gesellschaft für Informatik (GI), trat bei uns wieder eine Phase des Desinteresses, ja der Apathie ein. Ich bin gespannt, ob es den europäischen Kollegen anders ergehen wird.

Ich sehe ein weiteres Dilemma, und zwar in allen Ländern, in denen diese Diskussion geführt wird. Die Forderungen an die Öffentlichkeit und die Art, wie sie vorgetragen werden, sind nicht ganz neu. Alles, was die Bittsteller bisher gelernt zu haben scheinen, ist zu differenzieren zwischen Informatik-1 (Allgemeinwissen) und Informatik-2 (Fachwissen). Das, was in Europa gerade gebraucht wird, sei eigentlich keine Informatik mehr  ̶  so heißt es jetzt. Nur das, was gerade nicht gebraucht wird, sei Informatik. [Mich erinnert dies an ähnliche Diskussionen bei der Künstlichen Intelligenz. Die Folge in den USA war ein 20 Jahre langer KI-Winter]. Wir sagen nicht, wer sich um die Ausbildung in Informatik-1 kümmern wird. Jedenfalls betrachten sich dafür 'die Informatiker' nicht mehr als zuständig. Die Industrie trägt ohnehin die volle Verantwortung dafür, dass alle Produkte so leicht zu benutzen sind, dass keine formelle Schulung erforderlich ist.

Zwei irrlichternde Ereignisse aus jüngster Zeit seien erwähnt. (1) Der Stadtstaat Hamburg hat gerade das Fach Informatik aus dem Lehrplan seiner Schulen gestrichen. (2) Die Industrie hat erreicht, dass einige Hochschulen ein Studienfach Service-Wissenschaft eingerichtet haben. Ich nehme nicht an, dass daher in der allseits bekannten Service-Wüste Deutschland alsbald neue Oasen des anspruchsvollen Konsums erblühen werden. 

Donnerstag, 6. Juni 2013

Über die Irreversibilität der Zeit

in dem Blog-Beitrag zu Küppers vertrat Hans Diel die Meinung, dass

(1) die Gesetze der Physik keineswegs generell zeitsymmetrisch sind, und (2) um die Zeitasymmetrie zu zeigen, nicht auf die Entropie verwiesen werden muss.

Inzwischen haben wir das Thema weiter diskutiert. Die Frage ist nicht, ob es einen Zeitpfeil gibt, sondern ob er evtl. umkehrbar ist, d.h. ob die Gesetze der Natur zulassen, dass die Zeit auch rückwärts verläuft. Hier der Zwischenstand unserer Diskussion. Nach dem etwas länglichen Vorgänger wird dies ein eher kurzer Eintrag.

Position von Hans Diel:

Es ist nicht nötig die Effekte der Entropie heranzuziehen, um einen Zeitpfeil in der dynamischen Entwicklung der Welt zu erkennen. Die wichtigsten Gründe sind:

(1)  Eine Analyse der möglichen Identifikation eines Zeitpfeils erfordert einige sehr grundlegende Aussagen über den gesamten Prozess, der das Fortschreiten des Zustandes der Welt ausmacht. Bestehende Theorien der Physik enthalten zu diesem Thema nur implizite Annahmen, aber eine explizite und klare Formulierung von ihnen wäre wünschenswert. Bei meinem Versuch, einen solchen expliziten Prozess zu formulieren, war es mir nicht möglich eine befriedigende symmetrische Lösung zu finden. Meine Schlussfolgerung ist, dass der gesamte Prozess für die dynamische Entwicklung der Welt einen Zeitpfeil impliziert. Alternative Annahmen, die die Notwendigkeit eines Zeitpfeils vermeiden, sind für mich kaum vorstellbar.

(2) Im Gegensatz zu der vorherrschenden Meinung bei den Physikern, dass die Gesetze der Physik symmetrisch sind, bin ich der Meinung, dass diese Symmetrie nicht wirklich besteht. Ich meine, - um es etwas genauer zu sagen - dass man die Symmetrie der Gesetze zwar behaupten kann, dass jedoch diese Symmetrien bei der Anwendung der Gesetze durch die Natur (bei der Entwicklung des Universums) ignoriert werden. Bei der Anwendung der Gesetze benutzt die Natur jedenfalls nur die Version, die im Einklang mit der Kausalität steht.

(3)  Ein weit verbreitetes Argument der Physiker ist, dass man zwar alle möglichen Indikationen für die Existenz eines Zeitpfeils anführen kann (z.B. die Punkte (1) und (2)), dass jedoch alle diese Punkte letztlich auf die Zunahme der Entropie bei der Entwicklung unseres Universums zurückgeführt werden können. Ich behaupte, dass ich die Punkte (1) und (2) auch ohne Zuhilfenahme der Entropie begründen kann und, dass die Punkte auch bei einem (theoretischen) Universum, bei welchem die Entropie nicht zunimmt, zutreffen.

Meine Position (Bertal Dresen):

Die Annahme, dass Zeit reversibel ist, steht im Widerspruch mit vielen Prinzipien und Eigenschaften der Physik, vor allem aber der Kosmologie, Astronomie und Biologie

Das wichtigste physikalische Prinzip ist das der Kausalität. Sie gibt es nur, wenn es ein eindeutiges Vorher gibt. Kann das Vorher auch Nachher werden, und umgekehrt, gibt es keine Kausalität.

Die Entstehung des Universums, der Urknall, ist ein irreversibles Ereignis. Es macht keinen Sinn, nach Spuren wie der Hintergrundstrahlung zu suchen, wenn diese jederzeit rückgängig gemacht werden können. Bei der Entstehung von Himmelskörpern aus Molekülwolken spielt nicht nur Diffusion sondern auch Kontraktion von Massen eine Rolle. Nach geltender Theorie kollabierten Nebel zu Protosternen oder Scheiben. Täglich schlagen etwa 1000 Meteoriten auf die Erde. Es ist nicht vorstellbar, dass alle wieder zurückfliegen. Der Vulkanismus führt zu Erscheinungen und Formen, die eindeutig Vergangenheit und Zukunft unterscheiden lassen. Lava fließt in einer Richtung und kühlt sich dabei ab.

Die Evolution, das wichtigste Prinzip in der Biologie, basiert darauf, dass heutige Ausprägungen (Phänotypen) Information benutzen, die von Vorgängern stammt. Es gibt kein Beispiel, dass vergangene Phänotypen bereits Rückgriff auf zukünftige Entwicklungsstufen nahmen. In der Biologie gibt es keine Eltern, die von Kindern geerbte Gene aufwiesen, usw. usw.

Ursächlich entscheidend für die Gestalt und das Geschehen im Weltall sind nicht  Formeln. Die zurzeit benutzten Formeln gelten oft auch für Wertebereiche, die in der Natur nicht vorkommen. Was gilt, sind jedoch die physikalischen Zusammenhänge. Die Formeln dienen lediglich ihrer Beschreibung. Wäre man auf die Idee gekommen,  komplexe Zahlen zu benutzen, hätte das z.B. nicht zur Folge, dass es in der Realität auch Wurzeln aus negativen Zahlen gibt.

Nachbemerkungen:

Zu vielen meiner obigen Punkte kann man zusätzliche Bemerkungen machen. So meinen einige Leute, dass das, was wir als Kausalität bezeichnen nur eine Denkgewohnheit sei. Wir halten es einfach nicht aus, wenn wir in allem das Wirken des Zufalls annehmen müssen. Deshalb suchen wir fast krampfhaft nach Kausalität, also nach Gesetzen. Auch die Fälle, in denen ich einen irreversiblen Zeitpfeil vermute, sind nichts als Empirie. Es sind keine Beweise, nur Induktionen. Es sind Aussagen, deren Wahrheitswert durch neue Beobachtungen jederzeit gelöscht werden kann.   

Dass der Entropie-Begriff als Erklärung für das Vorhandensein von Zeit herhalten muss, hat auch mich nie befriedigt. In der Physik gehört das Zweite Gesetz der Thermodynamik zu den am wenigsten intuitiven und den am schlechtesten begründeten Gesetzen. Seine Anwendung außerhalb der Thermodynamik sollte deshalb mit äußerster Vorsicht erfolgen. So ist z.B. der Bezug zur Informationstheorie, den Claude Shannon herstellte, nicht unbedingt als hilfreich für das Verständnis von Information anzusehen. Gerade die im  oben erwähnten Blog-Eintrag zitierten Ideen von Manfred Eigen und Bernd-Olaf Küppers deuten in eine andere Richtung.

Da hat es doch die Mathematik gut. Sie hat alle diese Probleme nicht. Eine schöne Erklärung dafür fand ich dieser Tage bei dem ehemaligen Börsenhändler Nassim Nicholas Taleb in seinem Buch ‚Narren des Zufalls‘. Sie lautet: ‚Mathematiker sind fasziniert von dem, was sich in ihrem Kopf abspielt, während Wissenschaftler Dinge erforschen, die außerhalb ihrer Person stattfinden‘. Man könnte meinen, dass der Autor Mathematiker nicht für Wissenschaftler hält. Der Eindruck entsteht, weil der Übersetzer das englische Wort ‚scientist‘, das Naturwissenschaftler bezeichnet, etwas ungenau übersetzte. Man sollte Mathematiker (wenigstens)  zu den Strukturwissenschaftlern rechnen.