Sonntag, 4. November 2018

Denkweisen der Theoretischen Physik – ein Dialog

Den nachfolgenden Dialog zweier Freunde und Ex-Kollegen finde ich lesens- und diskussionswert. Berührt wird das Verständnis der Welt, das die heutigen Naturwissenschaften anbieten. Mit Erlaubnis der beiden Autoren, Peter Hiemann (PH) in Grasse und Hans Diel (HD) in Sindelfingen, gebe ich die Essenz wieder.

PH: Im Novemberheft von Spektrum der Wissenschaft (SdW) sind zwei Artikel des Physikers und Wissenschaftsjournalisten Robert Gast, die für einen Laien wie mich ziemlich verständlich sind, und mir gleichzeitig einen interessanten Blick in die Denkweisen einiger aktueller theoretischer Physiker gegeben haben.

Im Artikel “Teilchenphysik – Trügerische Eleganz“ bezieht sich Gast auf auf das Buch “Das hässliche Universum“ der Physikerin Sabine Hossenfelder. Unter anderem konnte ich erfahren, dass theoretische Physiker „einen Dschungel an Modellen für Physik jenseits des Standardmodells“ geschaffen haben, und dass einige theoretische Physiker vermutlich in Sackgassen geraten sind. Hossenfelder  moniert: „Sie glauben, Mutter Natur sei elegant und einfach“.  Hossenfelder ist suspekt, dass „viele ihrer Kollegen vergäßen, dass „mathematische Ästhetik Physiker schon oft in die Irre geführt habe“. Die Idee, dass eine “Theorie von allem“ „also irgendwann schon dann als wahr gilt, wenn sie die einzige weit und breit ist, die keine Widersprüche zu etablierten Naturgesetzen hervorruft“, findet der Nobelpreisträger Frank Wilczek „wirklich abstoßend“. Hossenfelder hofft auf den Idealfall, dass „eines der Projekte, die nach Dunkler Materie suchen, einen Befund ausspuckt, der theoretische Physiker auf die richtige Spur bringt. 

Im Artikel “Naturgesetze – Am Ende der Natürlichkeit“ befasst sich Gast mit „Grenzen, ab der die Formeln einer effektiven Theorie nicht mehr gültig sind“.  Gast ist der Ansicht, dass Erfolge in der Festkörperphysik „Physiker in dem Glauben bestärkt haben, dass die Natur  ‚emergent‘ ist: Danach sollte es möglich sein, die bei großen Abständen gültigen Naturgesetze aus denen kleinerer Distanzen herzuleiten“ Ich vermute, nicht in deterministischen aber kausalem Sinn: Eigenschaften Quarks → Protonen → Atomkernen → Atome lassen sich als emergente Phänomene auffassen. “Schließlich lässt sich mit  Chemie und Thermodynamik die Brücke zu makroskopischen Phänomenen schlagen“. Physiker verwenden die Bezeichnung «natürlich», wenn Abläufe auf einer bestimmten Skala nicht allzu empfindlich auf das reagieren, was auf einer viel kleineren Skala vor sich geht. Einige Physiker sind nach der Entdeckung des Higgs-Teilchens dazu übergegangen, Erweiterungen des Standardmodells zu entwerfen, die bewusst ‚unnatürlich‘ sind. Denen geht es darum, Quantenfeldtheorien zu entwickeln, in denen es völlig normal ist, wenn sich physikalische Prozesse über viele Skalen hinweg beeinflussen (jedoch nicht auf  Renormierung angewiesen sind).

Beim Lesen des Artikels habe ich öfters an Sie gedacht, da sie ja versuchen ein interaktives Modell der Quantenphysik zu entwerfen. Der Quantenfeldtheore zufolge sind nicht Elementarteilchen die grundlegenden Bausteine des Kosmos, sondern ihnen entsprechende Felder. Ich hatte auch ständig meine Vorstellung biologischer und neurobiologischer Prozesse vor Augen, die programmatisch aber selbstorganisierend. ablaufen. Gelingt es am Ende theoretischen Physikern, wichtige Beiträge zur Erklärung des Phänomens ‚Selbstorganisation‘ zu liefern?


HD: Ich habe die Artikel auch gelesen. Außerdem habe ich auch die englische Version des Buches von Sabine Hossenfelder gelesen. Das Buch hat mir sehr gut gefallen. Das habe ich auch Frau Hossenfelder in einer Email geschrieben. Der Titel der englischen Ausgabe ist "Lost in Math − How beauty leads physics astray". Ich finde, dass dieser Titel schon eine stärkere Aussage enthält als der deutsche Titel. Auch habe ich den Eindruck, dass der Artikel im SdW  die im Buch formulierte Kritik an der extensiven physikalischen Interpretation von mathematischen Formeln nur ungenügend wieder gibt. Vermutlich teilt Robert Gast Frau Hossenfelders Ansichten nur zum Teil.

Dass es in der theoretischen Physik neben dem Standardmodell einen "Dschungel" von alternativen Modellen gibt, halte ich für gut und normal. Mich stört nur, dass neue Theorien  es so schwer haben, wenn sie vom Mainstream abweichen. Wenn ich mich recht erinnere, kritisiert das Frau Hossenfelder auch.

In dem Buch von Frau Hossenfelder gibt es auch ein Kapitel über "biases" in science (nicht nur in der Physik) das mir sehr gut gefallen hat. Sie bespricht da alle möglichen Arten von Biases (confirmation bias, motivated cognition, sunk cost fallacy, in-group bias, attentional bias, etc.). Am besten gefallen hat mir, wo sie schreibt: "Then there is the mother of all biases, the bias blind spot - the insistence that we certainly are not biased."…  "And we insist that our behaviour is good scientific conduct, based purely on unbiased judgement, because we cannot possibly be influenced on social and psychological effects, no matter how well established."

Ich bin auch der Meinung, dass die Natur im Kleinsten (also auf der Quantenskala)  ‚emergent‘ ist. Ich finde es jedoch unseriös dies zu glauben/behaupten/vermuten, wenn man das nicht durch ein (mögliches) Modell untermauern kann. Darum versuche ich ein derartiges Modell zu entwickeln. Ob man bei dem, was ich da entwickele, von "Selbstorganisation" reden kann, müsste ich mit jemand besprechen der ein besseres Verständnis als ich von "Selbstorganisation" hat.

PH:
Auch ich halte es für gut und normal, wenn Naturwissenschaftler viele Arbeitshypothesen verfolgen. Ich habe aber Hossenfelder so verstanden, dass sie bei theoretischen Physikern einen mehr oder weniger undurchsichtigen "Dschungel" von Arbeitshypothesen vorfindet. Theoretische Physiker versuchen, in diesem "Dschungel" neue notwendige, grundlegende Erkenntnisse zu finden, die von allen Physikern akzeptiert werden können. In den Naturwissenschaften Chemie, Molekularbiologie und Neurobiologie existieren von allen Experten akzeptierte Erkenntnisse, die für eine Fülle interessanter Forschungsprojekte eine hinreichende Grundlage bieten. 
Übrigens bin ich der Ansicht, dass die meisten Geisteswissenschaftler heute nicht in die Nähe gesicherter Erkenntnisse gelangen. Hossenfelders Aussage mag ihrer Erfahrung mit theoretischen Physikern entsprechen: "And we insist that our behaviour is good scientific conduct, based purely on unbiased judgement, because we cannot possibly be influenced on social and psychological effects, no matter how well established." Aus meiner Sicht sind für Experten der Bereiche Chemie, Molekularbiologie und Neurobiologie die Grundlagen 'well established'. Natürlich sind alle Menschen psychologisch sensitiv.

Das Thema Selbstorganisation wird heute in vielen Wissensbereichen ernst genommen. Nach meinem Verständnis hat das Thema seinen Anfang mit Überlegungen genommen, die die  Neurobiologen Humberto Maturana und Francisco Varela (Buch "Baum der Erkenntnis") zum Thema  'Autopoiese' angestellt haben. Niklas Luhmann hat den Begriff in seinen Vorlesungen "Einführung in die Systemtheorie" übernommen.  'Autopoiese' wurde später mit 'Selbstorganisation' übersetzt. Bernd-Olaf Küppers verweist in seinem Buch "Die Berechenbarkeit der Welt" auf neue wichtige Wissenschaftszweige wie die 'Theorie der Selbstorganisation' oder der 'Netzwerktheorie'. Nach meinem Verständnis ist das Phänomen Selbstorganisation bei Systemen zu beobachten, innerhalb derer eine sehr große  Anzahl von Elementen und höher geordnete Funktionseinheiten interagieren. Ein sich selbst organisierendes System scheint über Funktionseinheiten zu verfügen, die sich fortwährend  über den Status seiner Elemente und Funktionseinheiten informieren, um den Ablauf des Gesamtsystems aufrecht zu erhalten, ohne dass es einer zentralen Steuerung bedarf. 

Entscheidend für die Erhaltung eines Gesamtsystems scheint die Existenz sehr effektiver Archive und Speichermedien zu sein. Bei molekularbiologischen Systemen ist DNA das effektive Archiv und Speichermedium für Organismen, bei neurobiologischen Systemen sind Gedächtnisse die effektiven Archive und  Speichermedien für Erinnerungen, Theoriegebäude und Denk- und Verhaltensweisen. Einige Ansätze von Funktionseinheiten 'intelligenter' Computersysteme scheinen in eine ähnliche Richtung zu gehen.

Aus meiner Perspektive und aufgrund meines unvollständigen physikalischen Wissens kann ich nicht erkennen, dass die derzeitige theoretische Physik  über einen Systemansatz mit Elementen und Funktionseinheiten verfügt, der Überlegungen  zum Thema 'Selbstorganisation' zulässt.

HD: Auch in der Physik gibt es natürlich seit Newton grundlegende Erkenntnisse die von allen Physikern akzeptiert werden. In den letzten hundert Jahren sind die Erkenntnisse enorm gewachsen. Die Physiker sind jedoch noch nicht soweit, dass sie sagen können jetzt haben wir Alles verstanden (auch wenn es einige gibt die meinen sie hätten FAST alles verstanden). Neben der Astrophysik wo noch vieles unverstanden ist, sehe ich noch den Bedarf für (1) ein besseres Verständnis der Quantentheorie und (2) ein kompatibles Verständnis von Quantentheorie und Allgemeiner Relativitätstheorie. Ich sehe zwei Probleme die dazu geführt haben, dass die Suche nach einem besseren Verständnis zu einem "Dschungel" von unausgegorenen Theorien geführt hat:

(1) Die verbesserten Theorien sollten/müssten durch neue Experimente und Beobachtungen  unterstützt werden. Neue Experimente sind jedoch im Kleinsten kaum noch machbar oder extrem aufwendig (e.g. CERN LHC); und im Größten überhaupt nicht möglich. Nur in der Astrophysik konnte man auf Grund vieler neuer Beobachtungen neue Erkenntnisse gewinnen, die jedoch zunächst nur zu Zweifeln an den bisherigen Erkenntnissen geführt haben.

(2) Physikalische Theorien sollten mathematisch beschreibbar sein. Ich behaupte, dass die Fixierung auf die in der Physik seit Jahrhunderten gebräuchliche (und bewährte) Mathematik den Fortschritt behindert. Ich sehe zwei Punkte die zusätzlich zur traditionellen Mathematik  für die Beschreibung verbesserter Physiktheorien notwendig sind: (a) diskrete Werte anstelle von differenzierbaren Wertebereichen, (2) Algorithmen anstelle von linearen (differenzierbaren) Prozessen.

Ich bin der Meinung, dass bei gewissen Themen auch ungesicherte Erkenntnisse einen (großen) Wert haben können. Man sollte diese Erkenntnisse nur bescheidener verkünden. Sind nicht "Grundlagen" per Definition immer well-established (nicht nur in den Bereichen Chemie, Molekularbiologie und Neurobiologie)? Und wenn sich heraus stellt, dass Grundlagen überarbeitet werden müssen, dann ist das meistens nicht wegen der "Biases" bei ihrer Entstehung.

Seit ungefähr zwei Jahren gibt es in meinen (kausalen) Modellen die Themen "Collective Behaviour" und "Emergenz". Ich weiß nicht ob man bei dem was ich vorschlage von "Selbstorganisation" reden kann. Bei mir haben sich die Themen  "Collective Behaviour" und "Emergenz" (zwangsläufig?) ergeben aus meinem Ansatz mit (1) diskreten physikalischen Einheiten (z.B. Raum und Zeit) und (2) nicht-linearen Prozessen. Ich glaube, dass diese Vorgehensweise richtig ist, nämlich: (a) sich Gedanken machen, wie können gewisse physikalische Prozesse im Detail und auf der Grundlage "gesicherter" Theorien ablaufen, und (b) wenn der so definierte Prozess Ähnlichkeit mit Prozessen hat, die in anderen Wissenschaftsgebieten mit "Selbstorganisation" beschrieben werden, ist es vielleicht sinnvoll Vergleiche zu machen.

Keine Kommentare:

Kommentar veröffentlichen