Mittwoch, 29. Mai 2013

Information und Leben – die rätselhaften Zwillinge der Wissenschaftstheorie

Ein treuer Leser dieses Blogs bezeichnete mich neulich spaßeshalber als Wissenschaftstheoretiker. Wenn das keine Beschimpfung sei, hätte ich nichts dagegen, erwiderte ich. Anschließend präsentierte er eine Liste mit Namen von Wissenschaftstheoretikern, die mich sehr beeindruckten: Albert Einstein, David Hilbert, Karl Popper, Ernst Mach, Paul Lorenzen, C.F. von Weizsäcker, Jürgen Mittelstraß, u.a. Auf seiner Liste fehlte der Name Bernd-Olaf Küppers (*1944). Dass er auch dazu gehören sollte, wurde mir klar, als ich dieser Tage sein Buch ‚Die Berechenbarkeit der Welt‘ las, das im Jahre 2012 erschienen ist. Das Buch enthält neun Vorträge des Autors aus der Zeit von 1984 bis 2006 in überarbeiteter Fassung.

Küppers schneidet in diesem Buch viele Fragen an, die auch in früheren Einträgen dieses Blogs behandelt wurden. Um die Aussagen von Küppers zu diesen Ausführungen in Bezug zu setzen, will ich (Bertal Dresen, BD) die Besprechung des Buches in Form eines Gesprächs durchführen. Meine Gesprächspartner sind zwei frühere Kollegen, die bisher mit einer Vielzahl von Beiträgen diesen Blog bereichert haben. Hans Diel (HD) aus Sindelfingen hat sich bisher hauptsächlich zu Fragen aus der Physik geäußert. Peter Hiemann (PH) aus Grasse ist sehr an Fragen der Molekular-Biologie und Soziologie interessiert. Sie haben beide das Buch von Küppers mit Interesse gelesen. Im Folgenden geht es nicht darum, den Inhalt des Buches korrekt und vollständig wiederzugeben. Wir greifen nur die Themen heraus, die uns zum Nachdenken anregten.

Natur und Naturwissenschaft

BD: Man müsse die Natur als eine Menge von kommunizierenden, dynamischen Prozessen ansehen, nicht als statische Struktur, meint Küppers. Wo machen wir da gerne Fehler? Was folgt daraus?

HD: Wie Sie wissen propagiere ich schon seit einiger Zeit, dass der Prozessaspekt stärker in den physikalischen Theorien berücksichtigt werden muss. So wie es für die Beschreibung eines Computerprogramms nicht ausreicht, Formeln für das Verhältnis von Input zu Output anzugeben, so ist es auch bei gewissen Themen der Physik nicht ausreichend Formeln (Gleichungen, Axiome) betreffend der Zustandsänderungen zu geben.  In den Wissenschaften, die sich mit komplexeren Prozessen befassen (z.B. Biologie, Soziologie, Geschichte) ist das Ignorieren des Prozessaspektes noch weniger sinnvoll. Die Präferenz der Physiker für Formeln, Gleichungen und Axiome und die Ablehnung von prozess-basierten Beschreibungen ist durch zwei Punkte verursacht: (1) Formeln sind viel kompakter und schöner. (2) In den klassischen Physiktheorien (z.B. Newtons Mechanik) sind die Axiome und Formeln in der Tat ausreichend, um das dynamische Verhalten abzuleiten.

PH: Es gibt vermutlich mehrere Gründe, warum wissenschaftliche Ansätze zu wenig Aufmerksamkeit kommunizierenden, dynamischen Prozessen widmen. Institute verharren in eingefahrenen Denkansätzen. Sie kennen nicht die technologischen Möglichkeiten, dynamische Systeme zu modellieren. Viele Institute besitzen keine Ressourcen (weder Personen noch ausreichende Computerkapazität), um Computermodelle zu entwickeln.

BD: Eine ‚exakte‘ Wissenschaft könne nur Aussagen über Dinge machen, die sie vereinfacht, abstrahiert und idealisiert. Nicht über Dinge, wie sie wirklich sind; nicht über historische oder evolutionäre Ereignisse. Relativiert das die Naturwissenschaften?

HD: Ich sehe da drei unterschiedliche Punkte: (1) Vereinfachung und Idealisierungen bei Berechnungen. Selbst in Theorien, die (weitgehend) exakt verstanden sind (z.B. Newtons Mechanik), gibt es kaum Berechnungen, die ohne Vereinfachungen und Idealisierungen auskommen. (2) In dem Maß, wie Theorien durch Formeln und Gleichungen formuliert werden (siehe vorherigen Punkt) sind Idealisierungen unumgänglich. Bei Differentialgleichungen ist die Idealisierung inhärent. Solange man sich über die Implikationen der Idealisierung im Klaren ist, sollte dies jedoch kein Problem sein. (3) Bei Theorien zu historischen und evolutionären Ereignissen sind die Vereinfachungen und Idealisierungen erforderlich, um die Komplexität auf ein verständliches (und erträgliches) Maß zu begrenzen.

PH: Naturwissenschaften können keinen Anspruch geltend machen, im Besitz von absoluten Wahrheiten zu sein. Auch nicht im Besitz von Gesetzmäßigkeiten, die für alle Systeme Vorhersagen aller möglichen Systemzustände erlauben. Dynamische Systeme, die evolutionären Variationen und Selektionen unterworfen sind, produzieren sogar unvorhersehbare Änderungen eines Systems (Emergenz). 

BD: Hier möchte ich daran erinnern, dass sich Medizin und Ingenieurwissenschaften auch mit Heuristiken zufrieden geben, die in 80% der Fälle zum Erfolg führen. Die Naturwissenschaften verlangen jedoch 100% Kausalität, wohl wissend, dass sie nur über hypothetisches Wissen verfügen. Es gilt nur für Idealfälle und unter Randbedingungen und nur bis zum Widerruf.

Küppers meint, man müsse unterscheiden zwischen Kausalitätsprinzip und Kausalitätsgesetz. Was heißt das? Wie drückt sich ein Kausalitätsgesetz aus? Die Nicht-Linearität von Kausalbeziehungen führe zu Überbestimmung oder Chaos. Wie muss man sich das vorstellen? Ist deterministisches Chaos ein Oxymoron?

HD: Das Kausalitätsprinzip besagt, dass nichts ohne Ursache geschieht. Das Kausalitätsgesetz besagt, dass gleiche Ursachen auch gleiche Wirkung haben. Man sagt, dass nicht-lineare Differentialgleichungen zu chaotischem Verhalten führen. Inwiefern Nicht-Linearität zu Überbestimmung führen kann, verstehe ich nicht. Warum man „deterministisches Chaos“ nicht als Oxymoron betrachtet, hat den Grund, dass die Gleichungen und Formeln, die zu Chaos führen, deterministisch sind. Es sind die gleichen Formeln, die auch die nicht-chaotischen Fälle beschreiben. Das nicht-vorhersagbare (chaotische) Verhalten entsteht  durch die extreme Sensibilität bzgl. der  Anfangsparameter. Diese Sensibilität bzgl. der Anfangsparameter sabotiert die Berechenbarkeit.

Zu Küppers' Hinweis auf Gödels Theorie zur Berechenbarkeit: Auch wenn ich ein großer Bewunderer von Gödels Theorien bin (und damit stehe ich nicht alleine), sollte man darauf hinweisen, dass in der Praxis (z. B. bei der Erstellung von Software) die von Gödel entdeckte Nicht-Berechenbarkeit gewisser Funktionen kaum ein Problem ist. Durch Einschränkung des Anwendungsbereichs (z.B. kontext-freie Syntax) oder Unterscheidung von Spezialfällen lassen sich oft Probleme, die allgemein nicht-berechenbar sind, trotzdem berechnen. Dies ist Küppers möglicherweise nicht bekannt. Ich finde jedoch, dass Gödels Theorie der nicht-berechenbaren Funktionen nicht in den Kontext der Frage „Gibt es unlösbare Welträtsel?“ gehört. Auch wenn aus der Liste der „sieben Welträtsel“ mittlerweile nur noch zwei von Küppers als ungelöst eingeordnet werden, bedeutet dies nicht, dass die Wissenschaft nur noch zwei ungelöste Probleme hat. Mit dem Fortschritt der Wissenschaft ändert sich die Liste der offenen Fragen. 

Physik und Quantentheorie

BD: Küppers sagt (S. 24), die Physik erziele ihre Fortschritte, dadurch dass sie absolute Aussagen und Begriffe gegenüber relativen aufgibt. Wo ist das außerhalb der Relativitätstheorie noch der Fall?

HD: Neben der Relativierung von Raum und Zeit (von Küppers bereits erwähnt) könnte ich nur noch die folgenden Punkte als Relativierung sehen: Relativierung von Geschwindigkeit, Masse, und Energie (hängt alles mit der Relativierung von Raum und Zeit zusammen), "Relativierung" von Ort und Impuls durch die Quantenphysik, "Relativierung" von Vorhersagen (in Richtung Wahrscheinlichkeiten).

BD: Küppers meint, dass die Unbestimmtheit der Quantentheorie auf Unkenntnis von Gesetzen beruhen könne? Ist der Vorwurf begründet?

HD: Auch hier müssen zwei Themen unterschieden werden: (1) Heisenbergs Unbestimmtheitsrelation, welche z. B. besagt, dass wenn der Ort eines Teilchens mit der Wahrscheinlichkeitsverteilung dx gegeben ist, dann ist der Impuls mit einer dazu „inversen“ Wahrscheinlichkeitsverteilung dp gegeben. Diese „Unbestimmtheit“ ist keine Unkenntnis. Sie ist vielmehr eine erstaunliche Erkenntnis. (2) Der Nicht-Determinismus der Quantenphysik wird schon seit 100 Jahren versucht durch bisher unbekannte („verborgene“) Parameter zu erklären. All diese Versuche sind bisher fehlgeschlagen. John von Neumann hatte einen mathematischen Beweis geliefert, dass der Nicht-Determinismus nicht durch verborgene Parameter erklärt werden kann. Später hat sich herausgestellt, dass von Neumanns Beweis unzulässige Annahmen enthält. Ich würde von einer etwaigen Unkenntnis an dieser Stelle der Quantenphysik keinen Vorwurf ableiten. Ich sehe andere mehr gravierende Punkte von Unkenntnis in der Quantenphysik (etwa die Interferenz) und sonstigen Physik.

Evolution und Leben

BD: Das Thema Evolution scheint allmählich für jedes naturwissenschaftliches Fachgebiet Relevanz zu haben. Es hat in der Biologie begonnen und erfasst jetzt auch viele andere Gebiete. Täuscht das?

PH: Die Evolutionstheorie ist kein metaphysisches Forschungsprogramm, sagt Küppers. „Die natürliche Selektion ist ein universales Naturprinzip, das unter bestimmten physikalischen Voraussetzungen auch im Bereich der Moleküle wirksam ist“. „Die Evolution besitzt einen nahezu unbegrenzten Spielraum von Möglichkeiten und es ist völlig ausgeschlossen, dass sie, vom gleichen Punkt ausgehend, zweimal denselben Weg durchläuft“.

Küppers benutzt den Begriff „Wirkungsgefüge“. „Organisierte Wirkungsgefüge, deren Dynamik auf die Erfüllung einer Funktion ausgerichtet ist, sind immer informationsgesteuert“. Vielleicht bezieht sich Küppers auf den von der Hirnforschung benutzten Begriff „Dynamisches Kerngefüge“ (Gerald Edelmann), mit dem das neuronale Phänomen Bewusstsein erklärt wird. Er beschreibt die permanente Rückkopplung zwischen dem Genom (DNA) und den Genprodukten (Proteine). „Diese Rückkopplung ist erforderlich, damit sich der Organismus sukzessiv aus dem Genom, d.h. seine inneren Organisationsstrukturen, entfalten kann. Damit die Kohärenz dieses Vorgangs gewährleistet ist, muss der Informationsaustausch zwangsläufig die Form einer Kommunikation haben.“ In einem Systemmodell, das auf fortlaufenden (auch rückbezüglichen) Kommunikationsprozessen zwischen Programmsystem – Interaktionssystem – Funktionssystem basiert (Luhmann), gibt Küppers Aussage zusätzliche Relevanz. Unter anderem erklärt sich darin der Unterschied zwischen „algorithmisch relevanter“ und „funktionell relevanter“ Information.

BD: Die Definition von Leben (Stoffwechsel, Selbstreproduktion, Mutabilität) sei in der Physik anders als in der Biologie, meint Küppers. Für Physiker sei Leben lediglich eine komplexe Ordnung, für Biologen dagegen spiele das Auftreten von Information die entscheidende Rolle. Wer hat Recht?

PH: Küppers bringt den Sachverhalt eines lebenden Systems auf die Formel: „Leben = Materie + Information“. Er postuliert: „Für alle Stufen der belebten Materie, vom Biomolekül bis zum Menschen, sind die allgemeinen Prinzipien der Erzeugung, Speicherung und Übertragung von Information essentiell.“ Er weist darauf hin, dass sich verschiedene wissenschaftliche Fragestellungen auf Grund der Analyse einer gemeinsamen Struktur ergeben. „Der Physiker betrachtet z.B. primär thermodynamische Aspekte bei der Entstehung geordneter Strukturen. Der Molekularbiologe interessiert sich für Merkmale der belebten Materie, z.B. für die Tatsache, dass Lebensvorgänge informationsgesteuert sind. Der Zellbiologe wird die Zelle als autonome Lebenseinheit betrachten.“

BD: Ist es nicht so, dass jedes Fachgebiet sich einfach auf die Aussagen beschränkt, die es mit den ihm zur Verfügung stehenden Methoden und Begrifflichkeiten machen kann. In manchen Fällen, so bei den Themen Leben und Information, reicht das einfach nicht. Die Evolution gäbe es auch in der Physik. Stimmt das?

HD: Evolution im Sinne von (dynamischer) Weiterentwicklung von (komplexen) Systemen gibt es natürlich auch in der Physik. Evolution, wie sie in der  Biologie definiert ist, ist mir in der Physik nicht bekannt.

PH: Der Übergang von unbelebter zu belebter Materie sei fließend, meint Küppers. „Die Phase der chemischen Evolution unter präbiotischen Reaktionsbedingungen war durch die Vielfalt chemischer Verbindungen gekennzeichnet. Der entscheidende Schritt zur Entstehung von Leben ist die konvergente Phase der Selbstorganisation gewesen (Hyperzyklus nach Manfred Eigen).“ „Für die Ausbildung informationstragender Moleküle und Molekülsysteme ist die natürliche Auslese unverzichtbar, weil überhaupt nur auf diesem Wege Information entstehen kann.“ In den  Experimenten mit genetischem Material eines RNA-Virus, das Bakterien befällt (eines Phagen), konnte gezeigt werden, dass Evolution eines RNA-Virus auch mit  Verlust genetischer Information (Reduktion von Komplexität) einhergehen kann.

Naturgesetze und ihre Simulation

BD: Die Naturgesetze seien Differentialgleichungen, so heißt es. Sie setzten Anfangs- oder Randbedingungen voraus. Kennen Sie Beispiele mit konkreten Randbedingungen? Aus eigener Erfahrung weiß ich, dass außerdem Schrittweite und Zahlendarstellung sehr kritisch sein können. Was entspricht dem in der Natur?

HD: Beispiele für Randbedingungen (nur für bestimmte Differentialgleichungen) sind:  Die Energie darf keine negativen Werte annehmen; ein Wert im Nenner (z.B. Masse) darf nicht Null werden; die Wahrscheinlichkeit darf nicht größer als 1 werden; das betrachtete System muss abgeschlossen sein.  Ja, ich sehe, dass es so etwas wie den Einfluss von Schrittweite und Zahlendarstellung auch in der Natur gilt und, dass (auch) deswegen die Formeln der Physik meistens Idealisierungen sind (siehe oben). Was dies für die Physik bedeutet wäre ein Thema für eine längere Diskussion.

BD: Physikalische Prozesse benötigen Zeit. Alle bekannten Prozesse (z.B. Wärme-Austausch, Ausbreiten von Licht) laufen nur in einer Richtung. Sie sind nicht reversibel. Sie haben einen Effekt, hinterlassen eine Spur. Warum tut die Physik so, als ob die reversiblen Prozesse der Normalfall wären? Warum wird Zeit so mühselig mittels Entropie erklärt?

HD: Ich bin der Meinung, dass (1) die Gesetze der Physik keineswegs generell zeitsymmetrisch sind, und (2) um die Zeitasymmetrie zu zeigen, nicht auf die Entropie verwiesen werden muss. Da mir jedoch kein Physiker bekannt ist, der das genauso sieht, und ich nicht so anmaßend bin zu glauben, dass ich das besser verstehe als all die Physiker, werde ich meine Argumente hier nicht ausbreiten. [Im nachfolgenden Eintrag wird dieses Thema vertieft]

BD: Das Computer-Experiment, das eine beliebige Zeichenkette solange variiert, bis dass eine vorgegebenes Wort entsteht, ist eher irritierend als erklärend. Wissen Sie warum man den Quatsch immer noch bringt? Auch das Evolutionsspiel von Manfred Eigen überzeugte nicht.

HD: Ich habe das so verstanden, dass diese Spiele demonstrieren sollen wie die Mischung von Zufall und (deterministischer) Funktion den Konfigurationsraum für mögliche Ergebnisse drastisch erhöht. Ich glaube, das wird auch demonstriert.

PH: Die Experimente zeigen, dass Evolution nicht mit Fortschritt (Zunahme von Komplexität) gleichgesetzt werden darf. Küppers ist sich bewusst, dass wissenschaftlich analytische Methoden unverzichtbar sind. Er gibt aber auch ein paar Hinweise, dass strukturwissenschaftliche Methoden durchaus das Potential besitzen, gewisse Zustandsvorhersagen für dynamische Systeme, die sich analytischen Methoden entziehen, zu liefern. Aus Küppers Sicht bieten Computermodelle vielfältige Möglichkeiten Prozesse dynamischer Systeme zu simulieren. Damit besitzen Wissenschaftler strukturwissenschaftliche Werkzeuge, die Einblicke in nicht-berechenbare „Mustervorhersagen“ ermöglichen.

Information und Kommunikation

BD:  Wenn nur physikalische Kräfte im Spiel sind, wie beim Boxen und Billardspiel, dann ist das wohl Interaktion ohne Kommunikation. Wo liegt die Trennungslinie? Wann wurde die Information als Kommunikationsmittel zum ersten Mal benutzt (100 Millisekunden oder 100 Millionen Jahre nach dem Urknall)?

HD: Interessante Frage. Zur Kommunikation (d.h. zum Austausch von Information) werden immer auch physikalische Prozesse benötigt. 

PH: Die Trennungslinie muss man vermutlich auf der Ebene informationstragender Moleküle (Nukleinsäuren vom Typ RNA) suchen. Küppers postuliert: „Für die Ausbildung informationstragender Moleküle und Molekülsysteme ist die natürliche Auslese unverzichtbar, weil überhaupt nur auf diesem Wege Information entstehen kann.“

BD: Sehr ausführlich befasst sich Küppers mit dem Informationsbegriff. Vieles von dem, was er sagt, deckt sich mit der in diesem Blog vertretenen Meinung. Information existiere nur in Bezug auf einen bestimmten Empfänger. Claude Shannon habe nur an den Sender gedacht. Auch Gregory Chaitins algorithmische Informationstheorie ignoriere die Bedeutung. Bedeutung sei eigentlich Teil der Pragmatik. Sie ergäbe sich aus dem Weltbezug. Bedeutung gäbe es nur relativ zu anderer Information. Der (Neuigkeits-) Wert von Information hänge vom Zustand des Empfängers ab. Das alles klingt recht gut. Was folgt daraus?

HD: Das weiß ich auch nicht. Das kann höchstens Konsequenzen haben für Theorien, die etwas zur Information sagen. Nach Küppers ist Information ein Naturphänomen (d.h. Gegenstand der Naturwissenschaften). Die gegenteilige Meinung (etwa eines Konstruktivisten) sei aus mehreren Gründen falsch. Verschiedene wissenschaftliche Disziplinen haben ein verschiedenes Verständnis von „Information“. Küppers sieht darin kein Problem. Hier ist er inkonsequent, da er sonst für fachübergreifende Begriffe plädiert.

PH: Nach Küppers‘ Auffassung ist Information immer auf andere Information bezogen. Information in einem absoluten Sinn existiert nicht. Der Wert von Information hängt nicht vom Zustand eines Senders und Empfängers ab, sondern wie eine Variation eines inhärenten Programms oder eines existierenden Funktionsumfanges während des Kommunikationsprozesses behandelt (selektiert = akzeptiert oder verworfen oder ignoriert) wird.

BD: Kommunikation verlange Sprache. Sprechakte bezögen sich immer auf einen Handlungskontext. Man könne nur verstehen, wenn man schon versteht. Das seien typische Aussagen von Linguisten. Kann linguistische Forschung (z. Bsp. Chomskys Sprachmodelle) der Biologie helfen?

PH: Küppers betrachtet Sprache als ein Naturphänomen und als „Prinzip zur Organisation und als Mittel zum Austausch von Information“. Sprache in diesem Sinn reicht von Information in genetischer Form bis zu menschlichen komplexen geistigen Vorstellungen. Chomkys Vermutung, dass Grundregeln menschlicher Sprache im menschlichen Genom verankert sind, ist vermutlich unzutreffend. Der Erwerb menschlicher Sprache erfordert fortlaufende Kommunikation mit einem menschlichen Umfeld. Menschliche Kommunikation erfolgt nicht nur über Sprechakte sondern auch über intuitive Reaktionen, Mimik und Gesten. Sprechakte erfordern ein hohes Maß an symbolischem Verständnis, das mühsam erworben werden muss. Übrigens gilt nach Küppers, dass „Wechselwirkungsprozesse zwischen Begriffs- und Theoriebildung nicht notwendig zu einer Vereinheitlichung der Begriffe führen müssen.“ Information sei kein Naturgegenstand, sondern lediglich ein zum Entropiebegriff korrespondierender Strukturbegriff.

Struktur- und Geisteswissenschaften

BD: Ist es sinnvoll Strukturen unabhängig von Zweck und Inhalt zu studieren? Also Strukturwissenschaft zu betreiben? Man sucht mühsam nach Themen. In der Physik von Sprachen zu reden, ist doch nur Metapher?

HD: In den „strukturwissenschaftlichen Disziplinen“ (siehe S. 273) weiter zu forschen macht durchaus Sinn. Die dort erforschten Erkenntnisse auf allen möglichen Gebieten anzuwenden, macht auch Sinn. Ein Wissenschaftsgebiet „Strukturwissenschaft“, das den Anspruch hat die verschiedenen Gebiete zu vereinen oder zu verbinden, sehe ich noch nicht als erstrebenswert.

PH: Eine Struktur erscheint dem Betrachter als „ungeordnet“, „selbstähnlich“ oder  „geordnet“. Die verschiedenen Formen struktureller Komplexität sind in Wirklichkeit fließend. Auf der mikroskopischen Skala der Betrachtung werden auch beeindruckende Formen dynamischer Komplexität ersichtlich. Insbesondere zeigt Küppers eine Graphik über „funktionale Komplexität“, wie sie in der geordneten Dynamik zellulärer Stoffwechselprozesse zum Ausdruck kommt.

Seine Aussage, dass „strukturwissenschaftliches Denken wissenschaftliches Denken schlechthin ist“, werden wohl alle wissenschaftlich und ingenieurwissenschaftlich Tätigen mit ihm teilen. Küppers Prognose, dass mehr oder weniger unabhängigen abstrakten „Strukturwissenschaften“ zukünftig eine dominierende Rolle zufällt, ist mehr als zweifelhaft. Küppers Denkansätze können aber helfen, divergierende wissenschaftliche Denkansätze einzelner wissenschaftlichen Domänen zusammenzuführen. Es wäre auch denkbar oder gar wünschenswert, gewisse strukturwissenschaftliche Methoden in einigen speziellen akademischen wissenschaftlichen Domänen (z.B. Systemtheorie, Netzwerktheorie, Informationstheorie) zu konzentrieren. Lehrstuhlinhabern solcher Domänen könnte die gleiche Rolle für andere Wissensfächer zufallen, wie Statikern eine grundlegende Rolle für alle Bauingenieure zukommt.

BD: Die Geisteswissenschaften studieren Ereignisse, die Geschichte. Historikern gehe es ums Sinnverstehen menschlichen Handelns. Die Naturwissenschaften versuchen Gesetze zu erkennen. Können beide zusammenkommen? Ernst Cassirer machte den Versuch beide zu vereinigen. Seine Lösung: Das Besondere ergibt sich aus der Vielzahl der Beziehungen zum Allgemeinen. Ist das nur Wunschdenken?

PH: Dass sich der Begriff „Geisteswissenschaft“ als Gegensatz zum Begriff „Naturwissenschaft“ eingebürgert hat, ist wenig hilfreich. Es gibt einige nicht naturwissenschaftlichen Domänen bzw. Systeme, die durchaus schon heute mit strukturwissenschaftlichen Methoden bearbeitet werden und weiterentwickelt werden können. Zum Beispiel Systemmodelle für ökonomische (Unternehmen), Infrastruktur- (Kommunen) oder soziale (Gesundheit, Alter) Prozesse. Die Analyse historischer Ereignisse mit strukturwissenschaftlichen, statistischen Methoden wird nur sehr einschränkende Aussagen zu menschlichen Verhalten liefern können (Kriege? Umweltkatastrophen?). Evolutionäre historische Abläufe wiederholen sich nicht. 

Nicht so Überzeugendes

BD: Es gibt ein Kapitel über ‚Schönheit‘ als Kriterium für Wahrheit. Ich halte das für mathematische Romantik! Desgleichen gilt für den Versuch, Gesetze für die Geschichte der Menschheit zu finden.

HD: Was schön ist, bleibt letztlich subjektiv (jedoch nicht völlig subjektiv!). Ob A schöner ist als B, wird nie berechenbar sein. Man kann eine Parallele zu Occams Razor ziehen, dass nämlich die einfachsten (i.e. minimalsten) Annahmen zu der bevorzugten Theorie führen sollten. Was die einfachsten Annahmen sind, ist oft auch (leicht) subjektiv.

BD: Ich finde, dass der Buchtitel ‚Berechenbarkeit der Welt‘ einen falschen Eindruck erweckt, dass dies nämlich ein realistisches Ziel sei. Es ist fast so, als ob ein Mediziner über die Heilbarkeit aller Krankheiten spricht, um Aufmerksamkeit zu erlangen.

HD: Es geht Küppers eher darum, die Probleme und Grenzen der Berechenbarkeit in den verschiedensten Gebieten aufzuzeigen, und weniger zu zeigen, dass oder wie man alles Mögliche berechnen kann.

PH: Warum Küppers Buch den Titel ‚Die Berechenbarkeit der Welt‘ trägt, bleibt sein Geheimnis. Vermutlich hat der Hirzel Verlag darin ein Verkauf förderndes Argument gesehen. Küppers ist sich offensichtlich bewusst, dass die natürliche Welt nicht berechenbar ist. Bestenfalls kann man dem Bemühen, mehr über die Welt zu wissen, auf die Sprünge helfen.

Zusammenfassung

PH: Küppers Hauptanliegen ist zu zeigen, dass alle wissenschaftlichen Domänen gut beraten sind, sich mit strukturwissenschaftlichen Methoden vertraut zu machen und zu benutzen. Insbesondere widmet sich Küppers Perspektiven und Methoden, mit denen sich dynamische selbst-organisierende Strukturen und deren evolutionäre Entwicklungen erklären lassen.

Am Ende stellt sich eine zusätzliche Frage, die auch in Küppers Buch vielleicht nicht offen aber verdeckt gestellt wird: Warum wird erst heute offensichtlich, dass Aspekte der Komplexität, der Nichtlinearität, der Selbstorganisation und der Evolution für viele Wissenschaften eine wichtige Rolle spielen, obwohl entsprechende Erkenntnisse schon vor mehr als 30 Jahren verfügbar waren. Küppers verweist mehrfach auf Arbeiten des Nobelpreisträgers Manfred Eigen, der schon 1971 über „Self-Organization of Matter and the Evolution of Biological Macromolecules“ publiziert hat. Küppers würdigt auch Niklas Luhmanns „funktionale Systemtheorie“ als den bisher umfassendsten Versuch einer strukturwissenschaftlichen Grundlegung der Theorie sozialer Systeme. Übrigens hat Luhmann das Prinzip „Blind Variation and Selective Retention“ von Donald T. Campbell (1916 – 1996), einem amerikanischen Soziologen, übernommen. Es wird gesagt, dass Campbell sich viele Gedanken über die Herkunft und Beharrlichkeit von „falschem Wissen“ gemacht hat. Zum Beispiel scheinen traditionelle Vorurteile und Konventionen ursächlich dafür zu sein, dass an fehlerhaften Vorstellungen und Theorien festgehalten wird.

BD: Mich hat das Küppers-Buch vor allem deshalb beeindruckt, weil es klar belegt, dass nicht nur die Physik, sondern auch die Biologie uns laufend an die Grenzen unserer Erkenntnis bzw. Erkenntnisfähigkeit führen. Ob es Naturgesetze oder Algorithmen gibt, die beim Aufbau der Genome wirksam waren, können wir (noch) nicht sagen. Noch können wir sagen, dass dies nicht der Fall war. Man nimmt daher (im Moment) eine zufällige Entstehung der ersten Codierung an. Danach fanden beliebige Variationen statt. Für die zentrale Frage, wie Leben entstand, haben wir also nichts weiter zu bieten als Hypothesen.


Nachtrag am 30.5.2013 von Peter Hiemann:

ich habe ein Video gefunden, in dem Küppers und Eigen sich zum Thema Selbstorganisation äußern. Das Video ist eine schöne Ergänzung zu Ihrem Blog-Eintrag. Der Link ist 

http://www.youtube.com/watch?v=cBe1Ctvjm-8

Ich fand in dem Video auch Hinweise, die mich motivieren, meine Studien und Überlegungen über Selbstorganisation in biologischen, geistigen und gesellschaftlichen Systemen weiter zu treiben. V
ielleicht haben Sie auch Lust (wie ich), Manfred Eigen eine halbe Stunde zuzuhören: 

 http://www.3sat.de/mediathek/index.php?display=1&mode=play&obj=26476

NB: Erstaunlich wie viele ähnliche Gedanken Manfred Eigen in dem Gespräch anspricht. Er zitiert übrigens C. F. von Weizsäckers Definition von Information, die ich nicht kannte: Information ist nur das, was Information erzeugt, Information ist das, was verstanden wird. Darüber kann man viel nachdenken.


Mittwoch, 22. Mai 2013

Darf man Hitler als Schelm darstellen?

Ehe ich auf den Bestseller von Timur Vermes (*1967) mit dem Titel ‚Er ist wieder da eingehe, möchte ich kurz die Frage ansprechen, wie ich selbst Hitler erlebt habe und wie ich ihn heute sehe.

Gesehen habe ich Hitler in Person ein einziges Mal am 27. August 1938, als er nach einer Besichtigung von Westwallanlagen im Autokonvoy an meinem Elternhause vorbeifuhr. Ich war fünf Jahre alt und besuchte noch nicht die Grundschule. Es folgte der militärische Aufmarsch des Frankreich-Feldzugs, fünf Jahre Kriegswirtschaft und Jabo-Angriffe und am Schluss die Rundstedt-Offensive. Danach lebte ich in der französischen Besatzungszone, ging als Austauschstudent nach Amerika und arbeitete anschließend 35 Jahre für eine internationale Firma.

Ich betrachte es als Glück, dass ich mich nicht mit dem Nazi-System direkt auseinandersetzen musste, und dass ich von den Folgen des Krieges weitgehend verschont blieb. Dennoch betrachte ich Hitlers Ideologie als eine der größten Perversionen der europäischen Geschichte. Sein Einfluss überbietet sowohl Friedrich den Großen wie Napoléon. Durch die weitgehend freiwillige Gefolgschaft Hitlers hat sich das deutsche Volk große Schuld aufgeladen. Nicht alle Zeitgenossen Hitlers trugen das gleiche Maß an Verantwortung. Völlig wegleugnen lässt sie sich jedoch nicht. Deutschland wird auch weiterhin mit Hitler in Bezug gesetzt, wie es etwa während der Euro-Krise deutlich wurde.

Neuartiges Hitlerbuch

Der Inhalt des Vermes-Buches ist in einem Wikipedia-Eintrag vollständig wiedergegeben. Nur so viel: Hitler, der im Jahre 2011 auf einer Wiese bei Berlin aufwacht, erzählt wie er versucht sich zu orientieren und wie die Mitmenschen und vor allem die Medien ihm begegnen. Ein privater Fernsehsender versucht mit ihm als Comedy-Star Quote zu machen. Hitler jedoch glaubt, er hätte eine zweite Chance bekommen, seine historische Mission zu erfüllen. Das Augenmerk des Autors  ̶  und die Pointe des Buches  ̶  liegt in der Beschreibung der Reaktion auf die neue Sendereihe. Einige namentlich genannte Politiker tun dies distanziert und kühl, der Mann oder die Frau aus dem Volke teilweise mit Begeisterung. Die extreme Rechte sieht sich diffamiert und reagiert mit Gewalt, d.h. mittels Schlagring. Der neue Hitler wird außer Gefecht gesetzt, nachdem Drohungen durch anonyme Briefe nicht wirkten (‚Hör auf, Du verfluchtes Judenschwein!').

Wirkung des Buches

Nach seiner Vorstellung auf der Frankfurter Buchmesse im Oktober 2012 stieg der Roman auf Platz eins der Spiegel-Bestsellerliste. Er wurde über 400.000 Mal verkauft (Stand Februar 2013) und in 27 Sprachen übersetzt. Über die potentielle Wirkung des Buches wird lebhaft diskutiert. In der Süddeutschen Zeitung (vom 9.1.2013) schrieb Cornelia Fiedler:

Allzu oft lässt sich der Autor dazu hinreißen, seinen Hitler als humorigen Gesellen zu zeichnen und das wirkt letztlich verharmlosend … Vermes scheint sehr darauf zu vertrauen, dass sein Publikum schon auf der richtigen Seite stehen und in der Lage sein wird, das Gelesene zu reflektieren. Das wiederum ist, vor allem angesichts seiner intensiven Recherchen, politisch überraschend naiv.

Auf die Frage, wie er seinen Roman literarisch einordnen würde, meinte der Autor, dass es sich am ehesten um einen Schelmenroman handeln würde. Dabei fragt man sich unwillkürlich, mit welchen Schelmenromanen der deutschen Literatur das Buch wohl vergleichbar sei. Mir fallen vor allem der Simplicissimus ein, aber auch Till Eulenspiegel. Der moderne Schelmenroman sieht sich als Anti-Bildungsroman. Der Held ist bildungs-resistent, um es modern auszudrücken.

Politischer Rechtsextremismus

Dass durch das Vermes-Buch die Gefahr größer wird, dass junge Leute nach dem Lesen von Hitlers Ideen angetan sind, halte ich für übertrieben. Viel wichtiger ist die Frage, warum es in Deutschland überhaupt diese Form des Rechtsradikalismus gibt, der sich sogar mit den Fetischen der Nazis schmückt. Ich habe dafür bis jetzt keine gute Erklärung gefunden.

Kann es sein, dass es sich dabei lediglich um eine Kompensierung von linksradikalen Tendenzen handelt? Da diese sich vornehmlich in der akademischen Jugend ausbreiteten, kann es sein, dass Teile, vor allem der nicht-akademischen Jugend auf diese Art ihren Unterschied zum Ausdruck bringen möchten? Ich weiß es nicht.

In dem Buch von Vermes sind Neonazis als verbohrt dargestellt. Das kann man kaum als Werbung auffassen. Nachdem Hitler abwechselnd als Dämon, tragischer Held und Volksverführer dargestellt wurde, warum nicht auch als Schelm. Diese Freiheit sollte die Kunst haben. Es ist dies ganz im Sinne Schillers, der meinte, dass die (Schauspiel-) Kunst vor allem das Volk belehren soll. Heute akzeptieren wir, dass sie auch noch Geld verdienen will.

NB. Übrigens hat dieser Tage der 50.000te Leser diesen Blog besucht. Im Januar dieses Jahres waren es erst 35.000 gewesen. Offensichtlich steigt die Leserzahl immer noch (geometrisch) an. Eine ausführliche Analyse werde ich vermutlich Ende Juni vornehmen.

Dienstag, 14. Mai 2013

Heimat- und Weltgeschichte aus Sicht eines Moselfranken

In mehreren früheren Beiträgen gab es Belege für mein historisches Interesse. Ich ging dabei sehr selektiv vor. Geografisch beschränkte ich mich auf das Gebiet zwischen Tours und Bamberg in einer Richtung und zwischen Utrecht und Pforzheim in der anderen. Historisch umfasst dies einen Teil des römischen Imperiums und den späteren Siedlungsraum der Franken. In neuerer Zeit waren dies burgundische oder habsburgische Lande. Dass der französische und deutsche Sprachraum sich später politisch trennten, wird man einst als unglückliche Umstände ansehen, ebenso die Tatsache, dass es der Preußen bedurfte, um den Kölner Dom fertigzustellen. Obwohl meine unmittelbare Heimat, der Kreis Bitburg, erst im Wiener Kongress 1815 zu Deutschland kam, haben die meisten Einwohner die Anhänglichkeit an die alte Heimat überwunden. Nur 15% der Bewohner der Verbandsgemeinde Irrel stimmten im Jahre 2013 für die Rückkehr zu Luxemburg. Es war dies in Wirklichkeit eine Stimme für die Beibehaltung der derzeitigen Gliederung.

Bei einer kürzlich stattgefundenen Familienfeier konnte ich es nicht lassen, meinen Kindern und Enkelkindern eine Kostprobe meines Wissens zu servieren. Die Tour d’horizon hatte den Titel: Drei Schlachten, drei Hochzeiten. Näheres zu den erwähnten Ereignissen ist in zwei Veröffentlichungen [1,2] nachzulesen. Hier die Essenz:

Drei Schlachten 
  • 1136 Bitburg: Gefördert durch Schenkungen der salischen Kaiser dehnte sich der Besitz des Trierer Bischofs an der Kyll entlang in Richtung Idenheim, Röhl und Sülm aus. Damit geriet Trier zunehmend in Konflikt mit den Luxemburger Grafen. Als die Mönche des Trierer Klosters St. Maximin den Luxemburger Grafen Heinrich IV. (genannt der Blinde) gegen ihren Bischof (Albero von Montreuil) zu Hilfe riefen, ließ dieser die Gelegenheit nicht vorbeigehen. Er überfiel Trier in Abwesenheit des Bischofs. Dieser war auf einem Reichstag. Nach dessen Rückkehr rächte sich dieser. Es kam zur Schlacht von Bitburg und der anschließenden Plünderung Echternachs sowie der Zerstörung von mehreren Luxemburger Grenzfestungen. Eine davon war die Burg Prümzurlay, angeblich ein „altes Raubritternest“.
  • 1288 Worringen: Anlässlich eines Erbfalles im Hause Limburg machten die Luxemburger Grafen sich Hoffnung, ihr Gebiet weiter nach Norden ausdehnen zu können. Da sich dem das Haus Brabant (in Löwen) widersetzte, kam es zu einem vierjährigen Krieg. In der entscheidenden Schlacht am 5. Juni 1288 in Worringen bei Köln standen sich gegenüber: Graf Heinrich VI. von Luxemburg, Graf Reinald von Geldern und der Erzbischofs von Köln auf der einen Seite und Herzog Johann von Brabant, Herzog Adolf V. von Berg (mit den Düsseldorfer Bürgern und den märkischen Bauern) und die Bürger der Stadt Köln auf der anderen. In der Schlacht fielen Graf Heinrich VI. von Luxemburg, Gottfried von Vianden sowie die Herren von Brandenburg und Meisenburg, deren Familien Schloss und Dorf Niederweis damals besaßen. Durch diese Schlacht verlor Luxemburg seinen Anspruch auf die Provinz Limburg. Dasselbe Ziel wurde dann 1354 durch die Heirat von Graf Wenzel mit Johanna von Brabant erreicht. Der Bischof von Köln durfte fortan die Stadt Köln nicht mehr betreten. Er verlegte seine Residenz nach Bonn und später auf Schloss Brühl.
  • 1346 Crécy:  Walter IV. von Meisenburg, der Besitzer von Schloss Niederweis, starb am 28. August 1346 in der Schlacht von Crécy an der Somme, genauso wie sein Landesherr, König Johann der Blinde. Diese Schlacht des Hundertjährigen Krieges zwischen England und Frankreich gilt als letzte Ritterschlacht des Mittelalters. Es kämpften 500 Luxemburger Ritter auf der Seite des französischen Königs Philipp VI. Die englischen Bogenschützen erwiesen sich den in traditioneller Ritterrüstung kämpfenden Franzosen überlegen und töteten 6.000 Ritter und 20.000 Pikeniere (mit der Pike kämpfende Fußsoldaten). König Johanns Sohn Karl verlässt noch am selben Tag das Schlachtfeld, reitet ohne Unterbrechung nach Luxemburg und regelt die Nachfolge in seinem Sinne. Als König und späterer Kaiser Karl IV. geht er in die Geschichte ein. Der Leichnam Johanns des Blinden wurde in einer Klause in Kastel an der Saar aufbewahrt, von wo aus er nach Kriegsende 1945 nach Luxemburg überführt wurde. Im Hause Meisenburg tritt Johann, der Sohn Walters IV., die Erbfolge an. Er wurde auch Herr zu Clerf (frz. Clervaux).
 Drei Hochzeiten
  • 1477 Gent: Der Habsburger Maximilian I. hatte wahrlich weltpolitische Ambitionen. Er beabsichtigte das nach der Pest größte Problem des Mittelalters zu lösen, nämlich den andauernden Streit zwischen Kaiser und Papst. Nach dem Tode des Papstes war er bereit, sich zum Papst wählen zu lassen. Die Kardinäle entschieden jedoch anders. Als zweitbeste Lösung erschien es, Burgund mit Habsburg zu verkoppeln. Auf Burgunds Reichtum waren alle europäischen Fürsten neidisch. Drei Monate lang verhandelte man im Herbst 1473 in Trier, vom dortigen Kurfürsten und Bischof bewirtet. Man trennte sich ohne Ergebnis, da - wie böse Zungen behaupteten - der Wein zur Neige ging. Das Herzogtum Luxemburg hatte 1442 seine Unabhängigkeit verloren, als Philipp der Gute von Burgund das Land eroberte. Als sein Sohn Karl der Kühne sich mit den verwegensten Kriegern seiner Zeit, den Schweizern, anlegte, zog er den Kürzeren und wurde 1477 nach der Schlacht von Nancy in einem zugefrorenen Teich tot aufgefunden. Noch im selben Jahr fand dann in Gent die Hochzeit von Karls Tochter Maria mit Maximilian von Habsburg statt. Nicht alle Luxemburger Ritter stimmten dem Anschluss an Österreich zu. Das zwang Maximilian dazu, im Jahre 1479 die Grafschaft Useldingen zu konfiszieren. Er gab sie dem Markgrafen Christoph von Baden (1453-1527) zusammen mit Rodemachern (heute Rodemack in Lothringen). Christoph war der Sohn Karls I. von Baden und ein treuer Vasall der Habsburger. Die Herrschaft Niederweis gehörte damals den Grafen von Useldingen. Das Nimstal nannte man das 'Useldinger Ländchen'.
  • 1672 Niederweis/Bitburg: Durch die Heirat von Ursula Cob von Nüdingen, der Nichte des im Niederweiser Kirchturm begrabenen Philipp Christoph, kam 1672 der Name ‚von der Heyden‘ in das Schloss Niederweis. Johann Hermann von der Heyden stammte von Burg Stolzenburg bei Vianden. Seine Vorfahren waren Dienstleute der Viandener Grafen gewesen. Das Paar lebte seit Beginn ihrer Ehe in dem damaligen Schloss Niederweis. Es wird vielfach angenommen, dass der Hauptteil des damaligen Schlosses identisch war mit dem Südflügel des heutigen Schlosses. Das heutige Schloss wurde von ihrem einzigen Sohn Franz Eduard Anton gebaut, der als Vorsitzender des Luxemburger Rittergerichts lokalpolitisch von Bedeutung wurde. Außer dem als fünftem Kind 1692 geborenen Sohn hatte das Paar noch zehn Töchter.
  • 1732 Luxemburg: Franz Eduard Anton von der Heyden heiratete Maria Wilhelmina, ein Mitglied der Adelsfamilie Eltz-Rodendorf, die mit der berühmten Burg Eltz bei Mayen verbunden ist. Es gibt drei bekannte Zweige dieser Familie. Die Eltz-Kempenich und Eltz-Rübenach teilen sich heute diese verwinkelte Burg. Eltz-Rodendorf ist eine dritte Linie. Sie verfügt als Wappen über einen goldenen Löwen, der über dem Eingang des Niederweiser Schlosses neben dem Wappen der von der Heyden dargestellt ist. Die Familie lebte in Freistroff in Lothringen, besaß das Château Rouge bei Oberdorff und ist danach benannt. Sie besaß auch Wohnhäuser in der Stadt Luxemburg. Ich nehme an, dass Maria Wilhelmina mehr Zeit in der Stadt Luxemburg als in Niederweis verbracht hat und auch auf dem dortigen Kapunziner-Friedhof begraben wurde. Vermutlich starb sie vor ihrem Ehemann. Es existiert ein Entwurf eines Ehevertrags zwischen Franz Eduard Anton und Maria Wilhelmina. Das einzig Besondere darin ist, dass der erstgeborene Sohn als Alleinerbe eingesetzt wird. Er hieß Philipp Karl. Seine Schwester Ferdinande Theodora war also schon vor ihrer Geburt enterbt. Maria Theresia (1720-1803), eine Tochter von Maria Wilhelminas Stiefbruder Johann Hugo Ferdinand, war zwischen 1762 und 1795 Herrin auf Schloss Bourscheid bei Diekirch.
Ich will es bei diesen bruchstückartigen Hinweisen aus der Heimat- und Weltgeschichte bewenden lassen. Wer mehr wissen möchte, kann in den angegebenen oder anderen Veröffentlichungen (oder in Wikipedia) weiterlesen. Er kann auch das Schloss Niederweis besuchen. Mehrere Dokumente im Archiv von Schloss Niederweis beziehen sich auf die oben genannten Personen und Ereignisse. Ich weiß dies, da ich das Material gerade archivarisch erfasst habe.


Dieser Beitrag könnte auch generell Appetit auf Geschichte machen, besonders auf die einer Region zwischen Frankreich und Deutschland. Diese hatte bereits europäische Bedeutung, bevor das europäische Parlament und die europäischen Behörden sich in Brüssel, Luxemburg und Straßburg festsetzten.

Zusätzliche Referenzen:
  1. Endres, A.: Die Niederweiser Schlossherren und ihr Anteil an der Geschichte des Nimstals. In: Beiträge zur Geschichte des Bitburger Landes, Heft 54, 1/2004, S. 15-27
  2. Endres, A.: Frauenschicksale in Schloss Niederweis. Eingereicht für Heimatkalender 2014 des Eifelkreises Bitburg-Prüm
  

Montag, 6. Mai 2013

‚Hidden Champions‘ und das Exportwunder

Nachdem ich mich mehrmals etwas kritisch zur Situation der deutschen Wirtschaft geäußert habe, ist es an der Zeit, dem dadurch geschaffenen Eindruck etwas entgegenzustellen.  Anlass hierfür ist für mich das Buch von Hermann Simon mit dem Titel ‚Hidden Champions des 21. Jahrhunderts‘. Es erzählt eine ausgesprochen positive Geschichte, nämlich die des durch den deutschen Mittelstand bewirkten Exportwunders. Das Buch hat 452 Seiten und erschien im Jahre 2007. Das ist sechs Jahre her, war also vor der Insolvenz von Lehman Brothers und der nachfolgenden Wirtschaftskrise. Ein Auftritt des Autors letzte Woche in der 3SAT-Sendung  ‚Scobel‘ machte mich auf das Buch aufmerksam. Das Buch hat – wie man das von einem lesenswerten Buch erwartet  ̶  in mehreren Punkten meine Meinung bestätigt oder verändert oder aber meinen Blickwinkel erweitert.

Der Autor ist fest davon überzeugt, dass wir in Deutschland einige der besten Firmen in der Welt haben und auf sie stolz sein können. Zulange hat man die deutsche Industrie gleichgesetzt mit unseren DAX-Konzernen, den BASF, Bayer, BMW, Bosch, Daimler, Miele, SAP, Siemens und VW. Diese Firmen sind zwar auch nicht schlecht, ihresgleichen gibt es jedoch in allen Ländern der industrialisierten Welt. Viele Firmen aus dem Mittelstand sind zwar unbekannt, aber enorm erfolgreich. Keine von ihnen bettelt um Subventionen. Sie strahlen Optimismus aus und vertrauen auf die eigene Kraft. Im Folgenden werde ich die Aussagen des Buches nach einigen der Merkmale gruppieren, die zu den Erfolgsfaktoren der ‚Hidden Champions‘ wurden. Es verleitet mich darüber hinauszugehen, und einige mögliche Lehren für mein Fachgebiet, die Informatik, abzuleiten.

Mutige Ziele und solide Visionen

Der Erfolg im Leben und in der Wirtschaft stellt sich selten von selbst sein. Meistens steht am Anfang der unternehmerische Wille, der sich in konkreten Zielen ausdrückt. Diese Ziele können qualitativer Art sein (bester, freundlichster Lieferant im Markt) oder quantitativ (% Umsatzsteigerung). Das Wort Vision vermeidet man, da es nicht immer gelingt eine gute Balance zu finden zwischen Realitätssinn und Utopie. Wer dennoch von Visionen spricht (wie Reinhold Würth), muss dafür sorgen, dass sie durch Analysen begründet sind, sonst entwickeln sie ein Eigenleben.

Alle erfolgreichen Mittelständler bekennen sich zu Wachstum und Marktführerschaft. Dazu wird Energie und Führungskraft benötigt. Nur dadurch werden alle Mitarbeiter auf die Ziele eingeschworen (engl. committed) und ziehen am gleichen Strang. Typischerweise verzehnfachte sich der Umsatz einiger Unternehmen zwischen 1995 und 2005. Aus der Informatik-Branche gehören dazu Logitech, Bechtle, IDS Scheer und Software AG. Neu im Kreis ist die Firma Omicron, die Raster-Mikroskope herstellt. Als Wachstumstreiber gelten vorrangig die Globalisierung, danach die Innovation.

Starke Fokussierung und Spezialisierung

Alle Unternehmen dieser Gruppe bedienen Nischenmärkte. Sie sind Spezialisten par excellence. Sie vertiefen ihr Leistungsangebot entlang der Wertschöpfungskette anstatt die Verbreiterung (Diversifikation) zu suchen. Durch die starke Fokussierung wird keine Energie außerhalb des Kreises potentieller Kunden verschwendet. Dort – wo es darauf ankommt – ist man sehr bekannt. Man macht keine unnötige Werbung. [Ein Freund berichtete mir von der Firma seiner Schwester, die ihre medizinischen Spezialgeräte ausschließlich über Google vertreibt. Sie zahlen Google fünf Dollar pro Klick]  

Am besten sind die Unternehmen dran, die sich einen neuen Markt schufen, auf dem es noch keine Mitbewerber gab. Sie sind dann quasi die Marktbesitzer. Das Risiko besteht dann darin, dass der Markt schrumpft oder verschwindet. Deshalb betreiben einige Unternehmen eine ‚weiche‘ Diversifikation. Beispiele sind die Firma Trumpf in Ditzingen, die von ihrem Spezialgebiet der industriellen Lasertechnik in die Medizintechnik expandierte, und Gieseke & Devrient, die außer Geldscheinen jetzt auch Chip-Karten anbietet. Die Gefahr, sich zu verzetteln, ist groß. Wo es darauf ankommt, schlägt der Spezialist den Generalisten. Außer den bereits erwähnten gelten folgende Firmen als Weltmarktführer: 3B Scientific, Phoenix Contact und Wacker. Wie bei Vitronic und Brainlab (siehe unten) ist sehr oft die Persönlichkeit des Firmengründers sehr bestimmend. Outsourcing ist für diese Art von Firmen keine Alternative. In der Tiefe der Wertschöpfungskette liegt ihre Stärke.

Bewusste Globalisierung

Will man seine Stärke als Spezialist zur Geltung bringen, muss man dahin gehen, wo die potentiellen Kunden sind – so wie dies schon der mittelalterliche Handwerker und Heilpraktiker tat. Warten, bis die Kunden zu einem selbst kommen, konnten sich nur wenige leisten (vielleicht die Goldschmiede). Um hohe F&E-Kosten zu rechtfertigen, muss man aus Europa heraus. Der Weltmarkt ist 10-12 Mal so groß wie der deutsche Markt. Das Wachstumspotential liegt vor allem in Osteuropa und Asien. Die USA sind ein harter Testmarkt (frei nach dem Lied über New York ‘If you make it there, you‘ll make it everywhere’). Der Warenaustausch beträgt bereits über 2000€ pro Jahr pro Kopf der Weltbevölkerung, und wächst, wie am Container-Verkehr leicht zu erkennen.

Besser als Japaner und Südeuropäer beherrschen Nord- und Mitteleuropäer die Kommunikation in Englisch. Außerdem steigt die Zahl ausländischer Studenten, die später als Botschafter für deutsche Produkte in ihren Heimatländern werben. Nicht nur unsere oben erwähnten DAX-Unternehmen profitieren davon. Auch Mittelständler wie Stihl und Kärcher sind zu Weltmarken aufgestiegen. Für Marktführer sind die Margen hoch. Sie erkämpfen ihren Marktanteil nicht durch niedrige Preise, sondern durch gute Leistung. Sie überzeugen durch Technologieführerschaft, Produktqualität, Wirtschaftlichkeit und Liefertermintreue. Viele der Mittelständler sind Familienunternehmen. Sie können daher langfristig denken, nämlich in Generationen statt in Quartalen.
  
Innovation und Leistungsbereitschaft

Innovationen können sich auf Produkte und Prozesse beziehen. Entscheidend ist die Leistungsbereitschaft der Mitarbeiter. Die Anregungen für Innovationen können primär von innen kommen, aber auch von außen (Stichwort Offene Innovation [1]). Die Bedeutung von Erfindungen ist unbestritten. Nur bezüglich des Werts der Patentierung gibt es Meinungsverschiedenheiten zwischen den Branchen. Als Beispiel zweier unterschiedlicher Auffassungen gelten Biotechnik (für Patente) und Informatik (gegen Patente). Der Aufwand, der mit ihrer Durchsetzung und Verteidigung verbunden ist, schreckt ab. Statt sich zu verteidigen, gibt man sich lieber gleich geschlagen.

Der Aufwand, den ‚Hidden Champions‘ für F&E betreiben, ist  bei einigen doppelt so hoch wie beim Durchschnitt der entsprechenden Branche. Simon hat festgestellt, dass bei diesen Unternehmen drei Mal so viele Patente pro Mitarbeiter angemeldet werden als beim Branchendurchschnitt. Einen besonders hohen Wert misst z.B. die Firma Sennheiser ihren Patenten zu, weil sie im Wettbewerb mit Sony steht, einem Industrie-Giganten. Die Firma Enercon nimmt für sich in Anspruch, dass sie 40% aller Patente der Windenergie-Branche besitzt.

Kundennähe und Dezentralisierung

Die wahre Stärke der ‚Hidden Champions‘ zeigt sich in ihrer Kundennähe. Da sie in der Regel keine Produkte für den Massenmarkt herstellen, werden Kundenbeziehungen langfristig gepflegt. Dank des Direktvertriebs wird man von Top-Kunden zur Leistung angetrieben. Nicht nur hört die Entwicklung auf den Kunden, sondern auch auf den eigenen Fertigungsbereich. Ein Musterbeispiel für direkte Kommunikationsform wird von der österreichischen Firma Krones berichtet. Damit Monteure nicht von Konstrukteuren untergebuttert werden, berichten sie über ihre Erfahrungen stets in Anwesenheit des Firmenleiters.

Die organisatorische Dezentralisierung dient ebenfalls dazu, Kommunikationswege zu verkürzen. Produkte werden ständig und in kleinen Schritten verbessert. Man wartet nicht auf große Durchbrüche. Es ist entscheidend, dass man auch die kleinen Dinge besser macht als andere. Die Stärke der Ingenieure ist das Sowohl-als-auch-Denken.

Lehren für die Informatik

Für die Informatik gilt zweierlei: (1) Obwohl diese Firmen primär in andern Branchen tätig sind, können IT-Firmen sehr viel von ihnen lernen. Der Autor ist offensichtlich mit der Software-Branche nicht vertraut. Vielleicht hätte er einige ‚Hidden Champions‘ benennen können. Das Bild wäre trotzdem nicht sehr günstig ausgefallen. (2) Informatik-Studenten benennen zwar internationale Großunternehmen, deren Produktmarke bekannt ist, wenn sie nach dem Wunscharbeitsgeber gefragt werden. Die Mehrzahl von ihnen geht jedoch zu Firmen des Mittelstands. Das ist völlig richtig so. Die großen Firmen – mit SAP an der Spitze – sind nämlich nicht auf Informatiker aus Deutschland angewiesen.

Meiner Überzeugung nach liegen die Ursachen dafür, dass in Deutschland die Informatik – mit Ausnahme von SAP – ein verhältnismäßig schwaches Bild abgibt, an den Besonderheiten unserer Informatik-Ausbildung. Pragmatismus ist bei uns als unwissenschaftlich verschrien. Erfindungen zu machen, ist verpönt. Die aus der Mathematik stammenden Professoren gefallen sich dabei, alles was praktische Relevanz hat, als Fachhochschul-Niveau zu diffamieren. Man engagiert sich lieber im Semikolon-Krieg, d.h. im Streit um die ‚beste‘ Programmiersprache. Ich erinnere mich noch sehr gut an die Polemiken gegen 4GL-Sprachen wie ABAP, die in Vorlesungen verbreitet wurden. Stattdessen wurde auch 30 Jahre nach Einführung von Algol 60 noch Disputationen über den Unterschied von ‚Call by value‘ und ‚Call by name‘ als Wissenschaft gepflegt.

Unsere Hochschulen sehen es nicht als ihre Aufgabe an, zukünftige Unternehmer oder Erfinder auszubilden. Sie ziehen lediglich Importeure heran für ausländische Ideen und Produkte. So lange Informatiker eher als mittelmäßige Mathematiker denn als gute Ingenieure ausgebildet werden, wird sich daran auch nicht viel ändern. 

Einschränkende Zusammenfassung

Das Buch von Hermann Simon versucht eine wichtige Aufgabe zu erfüllen. Es will die Stimmung im Lande aufhellen, die nach seiner Ansicht schlechter ist als die Lage. Wir sollten Mut und Selbstvertrauen schöpfen, und zwar nicht nur in den Branchen, in denen die ‚Hidden Champions‘ angesiedelt sind. Wo es negative Nachrichten gibt, etwa den Stellenabbau betreffend, da stammen diese eher von Großfirmen als von Mittelständlern.

Die von Simon beschriebene Situation ist typisch nicht nur für Deutschland, sondern auch für Österreich, die Schweiz und Luxemburg. In Frankreich verlässt sich die Industrie ziemlich stark auf den Staat. Simon sieht es als Irrweg an, so genannte nationale Champions mit dem Staat als Garanten schaffen zu wollen. In Japan sind KMUs völlig abhängig von der Großindustrie. Sie wagen es nicht, selbständig im Ausland aufzutreten. In den USA existieren so gut wie keine mittelständigen Firmen.

Karriere-Vorbilder

Meine früheren Listen von Unternehmern und Erfindern, die Vorbild für junge Studierende sein könnten, kann ich um zwei weitere Namen (Norbert Stein, Stefan Vilsmeyer) ergänzen.

Norbert Stein (193x-), promovierter Elektrotechniker, gründete 1984 die Firma Vitronic in Wiesbaden. Über 10.000 ihrer Bildverarbeitungssysteme haben branchen- und weltweiten Einsatz gefunden. In der Automobilindustrie dienen sie der robotergeführten Schweißnaht-Inspektion. In der Logistik lesen sie Adressen und Versandcodes und steuern den Materialfluss in Paketverteilzentren. Sie erlauben Bekleidungshäusern mittels Ganzkörperscan Kleidung nach Maß herstellen zu lassen. Sehr bekannt ist die automatische Erkennung von Autokennzeichen bei Toll Collect. Jährlich investiert Vitronic mehr als 10 Prozent des Umsatzes in Forschung und Entwicklung. Mehr als die Hälfte ihrer Produkte ist jünger als drei Jahre. Das Unternehmen hat derzeit 500 Mitarbeiter, von denen mehr als die Hälfte einen Hochschulabschluss hat. Es hat Niederlassungen in Australien, China, Malaysia, Litauen, England und Frankreich. Stein ist Vorsitzender des Fachverband Robotik und Automation im VDMA. Im Jahre 2005 wurde er als „Entrepreneur des Jahres“ ausgezeichnet und erhielt in den USA einen Preis für sein Lebenswerk.

Stefan Vilsmeyer (1967-) gründete im Jahre 1989, also im Alter von 22 Jahren, die Firma Brainlab in Feldkirchen bei München. Er war damals Student der Informatik an der TU München im ersten Studiensemester. Im Alter von 17 Jahren hatte er ein Buch über 3D-Grafik verfasst, das mit mehr als 50.000 verkauften Exemplaren ein wahrer Bestseller geworden war. Die Firma Brainlab entwickelt und vermarktet komplette Hardware- und Softwaresysteme für das bildgesteuerte Operieren sowie die Strahlentherapie. Sie gehört  mit mehr als 5.000 installierten Systemen in etwa 80 Ländern zu den Marktführern. Die Brainlab-Gruppe beschäftigt derzeit 1.070 Mitarbeiter weltweit, mit rund 600 Mitarbeitern an dem Brainlab-Hauptsitz in München. Das Unternehmen verfügt über 17 Niederlassungen in Europa, Asien, Australien, Nord-und Südamerika. Im Dezember 2002 wählte das World Economic Forum (WEF) in Davos ihn zu einem "Global Leader for Tomorrow‘. Vorher schon erhielt er den Bayerischen Innovationspreis für das Jahr 2000.

Zusätzliche Referenz
  1. Endres, A.: Offene Innovationen und die sie begünstigenden Systeme. Informatik-Spektrum 34,4 (2011), 391-399