Freitag, 20. Oktober 2017

Sprachen der Menschheit als Beispiel einer empirischen Wissenschaft

Stellt man sich die Frage, ob man Wissenschaft empirisch oder rational betreiben soll, so scheint es dazu eindeutige Antworten zu geben. Neben der Astronomie, Biologie, Chemie, Geologie, Geschichte und Medizin ist die Linguistik ein herrliches Beispiel. Ich bezog fast alles, was ich im Folgenden wiedergebe, aus dem Buch Weltgeschichte der Sprachen von Harald Haarmann (398 S., 2016). Das Buch müsste in jeder Grundschule verfügbar sein. Solches Wissen kann nämlich gegen nationale Engstirnigkeit und westliche Voreingenommenheit schützen, wenn immer dies als erstrebenswert angesehen wird.

Begriff Sprache

Als Sprache im Sinne einer menschlichen Leistung gilt ein System von Lauten und Regeln (Grammatik), verbunden mit einem Wortschatz, das als soziales und kulturelles Kommunikationsmittel und Identitätssymbol dient. Unterschiedliche Sprachen sind durch Verständnisbarrieren getrennt oder setzen sich durch eine eigene Schriftform ab. In früheren Beiträgen dieses Blogs wurde der Begriff Sprache wesentlich lockerer gefasst. Nicht nur werden Vogelgezwitscher und Bienentänze als Sprachen bezeichnet, auch Mathematiker und Programmierer bedienen sich dieses Begriffs für ihre Notationen. Es ist dies eher eine Analogie oder Metapher.

Anzahl der Sprachen

Es gibt derzeit rund 6400 Einzelsprachen auf der Welt. Es werden immer noch neue entdeckt, auch ändert sich die Zuordnung zwischen Population und Sprache laufend. Tausende ehemals gesprochene Sprachen sind ausgestorben. Neue Sprachen entstehen fast immer durch Abspaltung von einer vorhandenen. 


Sprachenanzahl nach Weltregionen

Besonders auffallend ist die Insel Papua-Neuguinea mit rund 850 Sprachen. Die größte Fläche mit den wenigsten unterschiedlichen Sprachen ist der Norden Sibiriens. In Australien sind nur die Sprachen der Ureinwohner gezählt, nicht das Englisch der Einwanderer. Viele Sprachen werden nur von wenigen Tausend Menschen gesprochen, einige sogar nur von Hunderten. Weniger als fünf Prozent der Sprachen haben mehr als eine Million Sprecher. Diese können in einer Region zuhause sein oder aber über die Welt verbreitet leben wie im Falle der Kolonialvölker (Englisch, Französisch, Portugiesisch und Spanisch).

Die Erforschung der Sprachen erfolgte seit Jahrhunderten durch Methoden der Linguistik. Bei den verschrifteten Sprachen kam die Archäologie zu Hilfe. In jüngster Zeit betätigen sich auch Genetiker. Sie können Wanderbewegungen von Populationen über Jahrtausende hinweg identifizieren.

Entstehung und Typisierung von Sprachen

Man nimmt an, dass die heutigen Sprachen einen vierstufigen Prozess durchliefen: (1) Entwicklung akustischer Signale und Interjektionen (2) einfache Wortgebung der Umgebung (3) Beschreibung einer Vielzahl von Dingen und Ereignissen (4) Herausbildung komplexer Wort- und Satzstrukturen. Ein-Wort-Sätze wurden zur Ausnahme.

Ein Wortschatz kann wenige Hundert Worte umfassen aber auch nahezu eine Million (wie das  Oxford-Englisch). Die beliebtesten Wortfolgemuster sind Subjekt-Objekt-Verb (SOV) und Subjekt-Verb-Objekt (SVO). Abweichungen (OSV, OVS ) sind sehr selten, aber möglich. Die Linguistik unterscheidet meist vier Sprachtypen (a) flektierend, d.h. beugend, (b) agglutinierend, d. h. anklebend (c) isolierend und (d) inkorporierend. Eine andere Unterteilung spricht von synthetisch versus analytisch.

Sprachen mit starker Beugung tendieren oft dazu diese aufzugeben. Das Beispiel ist Englisch, das in vieler Hinsicht eine Vereinfachung des Deutschen darstellt (keine Kasusbildung außer für Genitiv, keine Konjugation außer für dritte Person). Unverkennbar ist der Trend zur Isolierung, wie er für das Chinesisch typisch ist (Beispiel ‚Haus der Eltern‘ anstatt ‚Elternhaus‘), so wie die Verbreitung analytischer Formen (‚mucho grande‘ anstatt ‚grandissimo‘). Bei der Benutzung nimmt die Komplexität einer Sprache eher ab als zu.

Die ersten Grundsprachen sind offensichtlich erst gegen Ende der Eiszeit, also vor 15.000 Jahren, entstanden. Der jeweilige Wortschatz reflektiert die Lebenswelt der Sprecher. Körperteile und Familienbeziehungen stehen überall im Vordergrund. Bei Farben sind ‚schwarz‘ und ‚weiß‘ Gemeingut. Alle anderen Farbnuancen sind in ihrer Kennzeichnung variabel. Dass Samen viele Namen für Schnee und Rentier haben, hat denselben Grund wie die vielen Brot- und Wurstsorten im Deutschen.

Bekannte Einzelsprachen und Sprachfamilien

Als besonders alte Sprachen gelten das Baskische, das Ainu in Japan, einige sibirische Sprachen, sowie das Khoi der Buschmänner in Südafrika. Die heutigen Basken gelten als direkte Nachfahren der Cros Magnons. Baskisch ist vorrömisch, ja vorindogermanisch ähnlich wie Etruskisch, Rätisch, Minoisch, Phönizisch, Hebräisch und Koptisch. Einige alte Sprachen verfügen über die typischen Schnalzlaute, so das Khoi der Buschmänner.


Verbreitete Sprachfamilien

Neben den isolierten Einzelsprachen gibt es 64 Gruppen, die als Sprachfamilien bezeichnet werden. Die austronesische Familie umfasst Madagaskar, Taiwan und die Oster-Insel im östlichen Pazifik. Die afroasiatische Familie schließt das Altägyptische und Arabisch ein. Die indoeuropäische Familie erstreckt sich von der iberischen Halbinsel bis zum Norden Indiens. Dort hat es die dravidischen Sprachen nach Süden verdrängt.

Indoeuropäisch

Nur drei der 64 Sprachfamilien entwickelten sich zu Kulturträgern, neben dem Indoeuropäischen das Afroasiatische und das Sino-tibetische. Das geschah in unterschiedlichen Perioden, beginnend ab 4000 vor Chr. Als älteste indoeuropäische Sprachen gelten Mykenisch, Hethitisch und Luwisch (die Sprache Trojas). Als ursprüngliche Heimat gelten Anatolien (wegen der Verbindung zur Erfindung des Ackerbaus) oder die Wolgaregion (wegen der Rolle des Pferdes). Die Spuren im Genprofil der Sprecher verweisen in Richtung der südrussischen Steppe. Das Sprachgedächtnis reflektiert drei signifikante Umweltereignisse, nämlich die Entstehung des Bosporus (Hebung des Meeresspiegels, auch Sintflut genannt), die kleine Eiszeit (um 6000 vor Chr.) sowie die anschließende Erwärmung.


Indoeuropäische Sprachen

Die indoeuropäisch sprechenden Kelten waren Ackerbauern. Sie verdrängten die als Viehzüchter lebenden Iberer in die Randgebiete. Später wurden sie ihrerseits durch Römer und Latein überlagert. Eine erste Aufspaltung des Indoeuropäischen in Einzelsprachen geschah um 2500 vor Chr. Man spricht seither von Kentum- oder Satem-Sprachen, nach dem Wort für die Zahl 100. Im Gebiet des Euphrats entstand das Reich von Mitani. Von dort aus wurde Indien erreicht. Hier entstanden das Sanskrit sowie rund 200 neuindische Sprachen. Italisch steht für Latein und ein halbes Dutzend verwandter Sprachen, die nur lokale Bedeutung hatten. Das Slawische wurde von den Mazedoniern Kyrill und Methodos mit einer heute noch üblichen Schrift ausgestattet. Zu den in Anatolien verbreiteten indoeuropäischen Sprachen gehörte das Phrygische. Tocharisch ist der Name, den Linguisten einer ausgestorbenen Sprache im Tarim-Becken in Westchina gaben, von der nur schriftliche Hinterlassenschaften bekannt sind.

Geschichte des Germanischen

Das uns nahestehende Germanisch enthält zu 38% nicht-indoeuropäische Wörter. Diese entstammen dem Kontakt mit Sprechern aus anderen Sprachfamilien. Seit etwa 100 vor Chr. unterscheidet man zwischen Nord-, West- und Ostgermanisch. Das Ostgermanische ist mit Gotisch gleichzusetzen. Nach der Völkerwanderung war es von allen germanischen Sprachen einst am weitesten über ganz Europa (einschließlich Nordafrika) verbreitet und ist heute untergangen. Gotisch war die Sprache der Reiche von Toulouse und Toledo, aber auch die der Burgunder, Krimgoten und Gepiden (in Transilvanien). So wie die Vandalen in Nordafrika wurden sie entweder romanisiert oder später von Arabern oder Franken zurückgedrängt. Im frühen Mittelalter gab es ein reiches gotisches Schrifttum. Die gotische Wulfila-Bibel aus Siebenbürgen ist ein bekanntes Beispiel. Als letzter gotischer Autor gilt Isidor von Sevilla (560-636). Er schrieb in Latein.


Heutige germanische Sprachen

Das frühe Deutsch basiert auf Baierisch und Fränkisch. Im 11. Jahrhundert erfolgte die Besiedlung des heutigen Österreichs durch deutsche Bevölkerungsgruppen. Ab dem 16. Jahrhundert gibt es Neuhochdeutsch auf ostfränkischer Basis mit hessischen und thüringischen Einflüssen. Martin Luther half bei seiner Verschriftlichung. Letzeburgisch erhielt 1946 seine eigene Schriftform und wurde 1984 zur Staatssprache.

Lateinisches Erbe

Latein ist die aus der Provinz Latium stammende Sprache, die sich in der Stadt Rom und später im römischen Reich ausbreitete. Sehr früh trennt sich Schriftlatein vom Sprechlatein. Marcus Terentius Varro (110-27 vor Chr.) war einer der ersten, der den Unterschied beschrieb. Viele Römer sprachen zugleich Griechisch. Das galt als weniger plebejisch. Im Sprechlatein wurden die Flexionen vieler Worte aufgegeben. Außerdem ersetzten analytischen Formen immer mehr die synthetischen.

Das Abdriften in Provinzen schuf Varianten, so wie dies später beim  Englischen (USA, Australien) passierte. Die nordfranzösische Sprechweise des Lateinischen wurde 842 in den Straßburger Eiden dokumentiert. Das Rätsel von Verona gilt als ältestes Dokument für modernes Italienisch. Ähnlich wie Martin Luther die Standardisierung des Deutschen förderte, so wurde von Dante, Petrarca und Bocaccio das Toskanische zur italienische Literatursprache erhoben. In der Karolingischen Renaissance rettete der Aachner Hof die lateinische Literatur. Karl ließ alle bedeutenden Werke abschreiben und verteilen. Latein florierte noch einige Jahrhunderte nach Karl als Amts-, Kirchen- und Wissenschaftssprache. Johannes Gutenberg druckte ausschließlich Latein. Die lateinische Schrift wird von vielen Sprachen auf der ganzen Welt benutzt.

Sonstige Regionen

Die Träger uralischer Sprachen waren ursprünglich Jäger und Sammler an der mittleren Wolga. Einige von ihnen zogen um 900 vor Chr. zur Ostsee (Esten, Finnen) und ans Schwarze Meer (Ungarn). Die nicht-agrarischen Bevölkerungsgruppen akkultierten sich nach und nach. Am wenigsten taten dies die Samen, die früheren Lappen. Afroasiatisch umfasst neben Alt-Ägyptisch alle semitischen Sprachen, außerdem Sprachen in Eritrea und im Tschad. Sino-tibetische Sprachen sind seit über 7000 Jahren in Benutzung. Seit 1200 vor Chr. ist die Sprache der Han-Chinesen verschriftet. Zum Altaischen gehören Mongolisch und die Turksprachen (Uigurisch, Tartarisch, Jakutisch, Türkisch). In Amerika unterscheidet man drei, sechs oder 58 Sprachgruppen je nach Abstraktionsgrad. Keine Sprache ist älter als 6000 Jahre. 

Geschichte der Verschriftung

Längst nicht alle Sprachen haben den Schritt zur Verschriftung geschafft. Schriften können logographisch (d.h. Bilder für Worte), phonographisch (nach dem Wortklang) oder alphabetisch sein. Die Sumerer schufen mit der um 2700 vor Chr. erfundenen Keilschrift ein Kulturexportgut, das der ganze vordere Orient benutzte. Die ägyptischen Hieroglyphen sind ein Kombination von Konsonantenzeichen und Wortbildern. Die chinesische Schrift ist streng logographisch. Sie wird auch von Japanisch und Koreanisch benutzt. Das älteste vollständige Alphabet ist das von Ugarit in Syrien aus dem Jahre 1200 vor Chr. Es wurde später von Phöniziern und Griechen benutzt.

Heutige Anzahl der Sprecher

Man unterscheidet zwischen der Zahl der Muttersprachler und der Gesamtzahl der Nutzer einer Sprache. Oft gibt es erhebliche Unterschiede. So wird Japanisch fast nur in Japan gesprochen, Englisch aber auf der ganzen Welt.


Heutige Weltsprachen und ihre Sprecherzahl

Nicht nur Handel, Tourismus und Wissenschaft bewirken das Erlernen fremder Sprachen. Es gibt heute mehr Migration zwischen den Sprachräumen als je zuvor. In den USA sind es die Latinos, in Europa Afrikaner und Asiaten. Das Internet tut ein Übriges.

Ein Phänomen besonderer Art sind Pidgin- und Kreolsprachen. Ein Pidgin ist eine Zweitsprache auf der Basis von Englisch, Französisch, Niederländisch, Spanisch, Deutsch oder Arabisch. Kreole heißen die Muttersprachen ganzer Völker oder Bevölkerungsgruppen, die nach besonderen Regeln entstanden sind. Es gibt über 170 Sprachen in diesen beiden Kategorien.

Effekt des Internets

Vielfach wird die Meinung vertreten, dass das Internet zu einer Verdrängung von Nationalsprachen zugunsten eines universellen Englischs führt. Der Eindruck war in den Anfangsjahren durchaus vorhanden, ist aber längst verflogen. Das Chinesische drängt mächtig nach vorne. Je alltäglicher die Anwendung, umso eher benutzt man die Landessprache. Außerdem erleichtert das Internet die Kommunikation zwischen sprachverwandten Teilnehmern, die durch große Entfernungen getrennt sind.

Nachtrag am 21. 10. 2017

Als frühe sprach- und schriftbasierte Hochkulturen gelten Ägypten (ab 4000 vor Chr.), Sumer und Indus (ab 3000), China und die Hethiter (ab 2000). Nach Griechenland tat sich Rom hervor, das im Mittelalter zuerst von der arabischen und anschließend von der abendländischen Kultur abgelöst wurde. In den Hochkulturen Amerikas (Maya, Azteken) spielten Sprache und die Schrift nur eine periphere Rolle.

Samstag, 7. Oktober 2017

Kognitiv-linguistische Analyse ̶ Was bringt uns das?

Vor gut einer Woche wies mich Peter Hiemann aus Grasse auf ein Buch von Elisabeth Wehling (*1981) hin: ,Politisches Framing: Wie eine Nation sich ihr Denken einredet - und daraus Politik macht. (224 S., 2016). Wehling ist Linguistin und Kognitionswissenschaftlerin und stammt aus Hamburg. Sie arbeitet in Berkeley, und zwar am International Computer Science Institute (ICSI). Das ICSI wurde 1988 auf Initiative von Norbert Szyperskis, dem damaligen Chef der Gesellschaft für Mathematik und Datenverarbeitung (GMD) in Birlinghoven gegründet. Das Ziel war, dem ‚Rückstand der deutschen Computer- und Softwaretechnologie sowie deren mangelnder Vernetzung mit der internationalen Entwicklung der Informationstechnik Abhilfe zu schaffen‘. Das Institut wird vorwiegend vom deutschen Steuerzahler finanziert. Zusätzlich zu Deutschland haben Italien, die Niederlande, Finnland und Singapur bisher Gastwissenschaftler entsandt.

Frames als Strukturierungsform des Denkens

Die Idee, dass unser Gehirn mittels Deutungsrahmen (engl. frames) arbeitet, geht angeblich auf den israelischen Psychologen Daniel Kahneman (*1934) zurück, den Träger des Wirtschaftsnobelpreises von 2002. Sein Buch Schnelles Denken  ̶  Langsames Denken wurde 2013 in diesem Blog besprochen. Kahnemans Aussagen sind sehr differenziert und kaum auf eine einzige Formel zu bringen.

Peter Hiemann fasste das Buch von Wehling wie folgt zusammen: Zugrunde liegt die Annahme, dass unser durch Sozialisation erworbenes Weltwissen vom Gehirn organisiert und in Form von Frames abgespeichert wird. Sie werden immer dann abgerufen, wenn es gilt, bestimmte Wörter, konkrete Handlungen oder Situationen richtig zu verstehen. Dazu stellen die Frames jenes Kontextwissen bereit, mit dem das Ereignis interpretiert, bewertet und in das vorhandene Wissen eingeordnet werden kann. Entscheidend ist dabei jedoch, dass Wörter oder Fakten je nach Kommunikationsziel unterschiedlich 'gerahmt' werden. Wehling betont, dass ‚Framing immer selektiv und mit Komplexitätsreduktion verbunden ist und somit unser Denken mehr oder weniger unbewusst lenkt‘.

Wehling weist darauf hin, dass persönliche Vorstellungen mittels Framing stark beeinflusst bzw. sogar manipuliert werden können. Wörtlich: 'Politisches Denken ist bewusst, rational und objektiv – diese althergebrachte Vorstellung geistert bis heute über die Flure von Parteizentralen und Medienredaktionen und durch die Köpfe vieler Bürger. Doch die Kognitionsforschung hat die ›klassische Vernunft‹ längst zu Grabe getragen. Nicht Fakten bedingen unsere Meinungen, sondern Frames. Sie ziehen im Gehirn die Strippen und entscheiden, ob Informationen als wichtig erkannt oder kognitiv unter den Teppich gekehrt werden. Frames sind immer ideologisch selektiv, und sie werden über Sprache aktiviert und gefestigt – unsere öffentlichen Debatten wirken wie ein synaptischer Superkleber, der Ideen miteinander vernetzen kann, und zwar dauerhaft. In der Kognitionsforschung ist man sich daher schon lange einig: Sprache ist Politik. Höchste Zeit also, unsere Naivität gegenüber der Macht politischer Diskurse abzulegen.‘

Neugierig gemacht, las ich Wehlings Buch. Ich habe wenig dazugelernt, über das hinaus, was Peter Hiemann dem Buch entnommen hatte. Hier einige weitere Aussagen. Fakten ohne Frames seien bedeutungslos. Frames werden durch Sprache aktiviert. Verstehen heißt Sinnzusammenhänge aus der Vergangenheit verarbeiten. Die ‚verkörperlichte‘ Kognition (engl. embodied cognition) ruft Vorgänge ab, die mit Worten assoziiert werden. Das Wort Nagel ruft ein Bild eines Hammers hervor. Bewegungen werden vorbereitet, indem sie simuliert werden. Frames selektieren, sie blenden aus. Wir können nicht kontrollieren, welche Frames wir zulassen. Wir sind uns nur zwei Prozent unseres Denkens bewusst, auch nicht der Frames. Einen Frame zu negieren, aktiviert ihn. Abstrakte Ideen werden durch Metapher denkbar gemacht. Wir können ohne Metapher kaum kommunizieren. Am gebräuchlichsten ist die Objekt-Metapher. Alle Ideen werden so ‚begreifbar‘, und ‚erfassbar‘.

Aktuelle Themen in der politischen Diskussion Deutschlands und Österreichs

In der Diskussion um Steuern würde der Bürger immer als Melkkuh gesehen. Der Last könne man sich am besten durch Flucht in Oasen und oder Paradiese entziehen. Staat und Gesellschaft stellten einen Wettlauf dar. Es gäbe Abgehängte und Eliten. Oben ist gut, unten ist schlecht. Dies lernten schon Babys, bevor sie sprechen. Die Sozialleistungen stellten ein Netz dar. Mal wird daraus eine Hängematte, mal wird es zum Tropf. Die Semantik von Arbeit sei die des Verdienens. Anders hat das Leben wenig Sinn. Islamphobie sei unvermeidbar wegen des Terrors. Er ist Angstauslöser par excellence. Der Islamische Staat (IS) sei ein ‚medial induziertes Trauma‘. Flüchtlinge träten immer als Welle oder Strom auf. Sie seien eine Gefahr genauso wie zu viel Wasser. Die Metapher ‚das Boot ist voll‘ deute eine Nation als einen Behälter. Der Ausdruck Klimawandel ist zwar neutral, das Wort verharmlose jedoch. Wir müssten nicht das Klima, sondern die Menschen schützen.

Meine Bewertung des Buches

Ein Linguist kann vermutlich nicht umhin, dem ‚Volk aufs Maul‘ zu schauen, wie dies schon Martin Luther tat. Ob daraus folgt, dass die wichtigsten Ergüsse der deutschen zeitgenössischen Prosa in Medien wie BILD, Welt und Kronenzeitung zu finden sind, kann ich nicht beurteilen. Dieses Buch sondert sich nicht vom Volke ab, indem es nur akademische Werke zitiert. Ein moderner Kognitionswissenschaftler hat Zugriff zu einem Kernspintomographen. Er überprüft welche Gehirnzellen aktiv sind, d.h. mit Blut versorgt werden, wenn jemand bestimmte Worte spricht. Unterschiede gibt es zwischen morgens, mittags und abends, zwischen Männern und Frauen, Amerikanern und Chinesen, Norddeutschen und Süddeutschen. Aus der Kombination aller Parameter ergibt sich ein nahezu unbegrenztes Forschungsgebiet.

Über Sprache und Linguistik

Dass unsere Sprache noch voller Rassismus und politischer Unkorrektheit steckt, ist nicht zu bestreiten. Erst vor wenigen Jahren wurden die Mohrenköpfe und Negerküsse entsorgt. Noch sagen wir ‚man‘, wenn auch Frauen gemeint sein können. Da kann noch ordentlich geputzt werden. Dabei hat die Linguistische Wende (engl. linguistic turn) überhaupt erst gerade begonnen, was die Geistes- und Sozialwissenschaften betrifft. 

Sprache wird seither als eine „unhintergehbare Bedingung des Denkens“ angesehen.  Denken ohne Sprache wird als „nicht existent“ oder aber „zumindest als unerreichbar“ angesehen. Das führte umgekehrt zur Erweiterung des Begriffs Sprache. Sie setzt nicht länger ein bestimmtes Medium, einen bestimmten Zeichensatz oder gar eine Grammatik voraus. Das Gegackere eines Huhns, das Rülpsen eines Dromedars, die Duftnoten einer Ameise, aber auch der Pinselstrich eines Malers oder der Bauplan eines Architekten werden danach als Sprachwerke interpretiert. Die betroffenen Berufe konnten sich nur wundern, dass sie plötzlich als Spracharbeiter oder Wortgelehrte vereinnahmt wurden. Sie empfanden dies geradezu als eine Herabstufung. Sie ließen sich aber nicht entmutigen. Das betraf erst recht alle Ingenieure, die immer noch glauben, dass ihre Werke auch ohne begleitenden Text einen Wert darstellen. Nur der Mathematik erging es besser. Zum Glück gibt es einen uralten Aufsatz des Logikers Paul Lorenzen (1915-1994). Er basiert auf einem Vortrag im holländischen Amersfoort vom August 1951, in dem er dafür warb, die Mathematik nicht als Sprache einzustufen. Eine Kopie dieses Vortrags wurde mir dieser Tage von einem besorgten Kollegen zugespielt.

War da noch etwas?

Zwei Bemerkungen noch zu dem fachlichen Hintergrund der Arbeit: (1) In den Sozialwissenschaften ist es offensichtlich schwerer als in den Naturwissenschaften reproduzierbare Gesetzmäßigkeiten abzuleiten. Die Versuchung ist groß, sich mit anekdotischem Wissen zufrieden zu geben. Mit dem Maß, was statistisch als relevant zu gelten hat, wird etwas großzügig verfahren. Die Wahlforscher können ein Lied davon singen. Hat jemand gehustet, muss nicht schon deshalb eine Grippe-Epidemie im Anmarsch sein. (2) Wegen der Zugehörigkeit zum ICSI frage ich mich, was wohl der Bezug dieser Arbeit zur Informatik ist. Vielleicht nimmt man 30 Jahre nach seiner Gründung die ursprüngliche Zielsetzung weniger ernst. Anders ausgedrückt, da das Ziel eh verfehlt wurde, spielt es jetzt keine Rolle mehr, über was geforscht wird, Hauptsache, die Forschungsmittel fließen.

Sonntag, 1. Oktober 2017

Nochmals: Ist Gott ein Mathematiker?

Die Frage, welche Rolle die Mathematik in den Wissenschaften spielt, hat uns schon mehrmals beschäftigt. Sehr ausführlich war der Beitrag im Dezember 2012. Dort wurde die Beziehung zwischen Mathematik und Physik beleuchtet. Im Januar 2015 besprach ich Mario Livios Buch, das den Titel trug ‚Ist Gott ein Mathematiker? Ich hoffte damit das Thema hinreichend behandelt zu haben. Diese Woche löste Peter Hiemann (PH) die Diskussion erneut aus. Sein erster Text ist ein Ausschnitt aus einem umfassenderen Essay. Zuerst reagierte Hans Diel (HD) darauf. Ich (BD) fügte anschließend einige Gedanken hinzu. Vermutlich ist das noch nicht das Ende dieser Diskussion. Jeder Blog-Beitrag kann wachsen.

PH: Die führenden Vertreter der Epoche der Aufklärung im 18. Jahrhundert vertraten  eine grundlegend neue Perspektive für die Betrachtung der Natur. Sie waren überzeugt, dass die Phänomene der Natur nicht als Resultat göttlicher Schöpfungsakte erklärt werden können. Stattdessen etablierten sie eine lange vermutete Hypothese als die 'wahre' Perspektive: die Phänomene der Natur sind berechenbar. Vielleicht erleben wir gerade wieder einen wissenschaftlichen Paradigmenwechsel: Führende Vertreter der Wissenschaft sind dabei, den Mythos zu begraben, dass alle Phänomene der Natur berechenbar seien und Mathematik die absolute mächtige Sprache sei, die Natur zu beschreiben. Die Erkenntnisse über nicht berechenbare Phänomene der natürlichen Evolution und die Möglichkeiten, nicht berechenbare Phänomene mittels mächtiger Computer zu simulieren, haben eine Lawine neuer Sichtweisen ausgelöst.

HD: Das zentrale Wort bei Ihnen ist das Wort "berechenbar". Aus vorangegangenen Diskussionen wissen wir, dass verschiedene Wissenschaftsdisziplinen (Mathematik, Physik, Biologie, sonstige) unter "berechenbar" Unterschiedliches verstehen. Mir geht es stattdessen mehr um "Gesetzmäßigkeiten". Ich glaube, dass es in den meisten Wissenschaftsdisziplinen, ganz besonders jedoch in den Naturwissenschaften, primär darum geht Gesetzmäßigkeiten zu erkennen und nachdem man sie erkannt hat, möglichst sauber zu formulieren. Bei dem Ziel „Gesetzmäßigkeiten zu erkennen“ kann ich keinen Paradigmenwechsel erkennen und es  würde mich auch sehr wundern, wenn es das jemals geben würde. Bei der Art und Weise, wie die erkannten Gesetzmäßigkeiten formuliert werden können, oder formuliert werden sollen, mag es durchaus Änderungen oder Änderungsbedarf geben. Dies würde ich jedoch keinesfalls als Paradigmenwechsel bezeichnen.

Das Bestreben erkannte Gesetzmäßigkeiten möglichst sauber und präzis zu beschreiben kann man am besten durch die Verwendung einer formalen Sprache oder formalen Beschreibungsmethode erreichen. Im Laufe der Jahrtausende hat sich die Mathematik als sehr gut geeignet erwiesen als Standardsprache für die formale Beschreibung von Gesetzmäßigkeiten. Es gibt eine Reihe von Vorzügen, die man erwähnen könnte bezüglich der Verwendung von Mathematik als Standardsprache für die Beschreibung von Gesetzmäßigkeiten. Ein Kritikpunkt sind jedoch eher die Unzulänglichkeiten der Mathematik für die Beschreibung von Gesetzmäßigkeiten in den verschiedenen Wissenschaftsdisziplinen. Hier möchte ich verschiedene Fälle unterscheiden:

(1)  Gibt es Wissenschaftsdisziplinen, deren Erkenntnisse prinzipiell wenig bis gar nicht geeignet sind durch eine formale Sprache präsentiert zu werden? Beispiele: Philosophie, Psychologie, Soziologie.  Die Gründe warum solche Wissenschaftsdisziplinen schlecht geeignet sind für formale Sprachen sind unterschiedlich. Ich meine jedoch man sollte sich davor hüten (a) diese Wissenschaftsdisziplinen als minderwertig zu sehen, jedoch auch (b) diesen Wissenschaftsdisziplinen zu viel „Narrenfreiheit“ zu zugestehen.
(2)  Gibt es erkannte Gesetzmäßigkeiten, die noch nicht mittels der derzeitigen Standardmathematik formuliert werden können? Dank der großen Leistungen der Mathematik war dieser Fall in den letzten Jahrhunderten ziemlich selten  (oder gab es diesen Fall überhaupt nicht?). Newton hat die Infinitesimalrechnung mit erfunden, um seine Mechanik sauber zu formulieren. Als Variante von Fall 2 kann es auch passieren, dass die zur Beschreibung einer bestimmten Art von Gesetzmäßigkeit akzeptierte Mathematik zu eng ausgelegt wird. Mein Standardbeispiel ist hier, wenn in der Physik verlangt wird, dass Prozesse und kausale Entwicklungen nur durch Differentialgleichungen und Operatoren beschrieben werden müssen. Algorithmische Beschreibungen sind verpönt.
(3)  Gibt es ungenügend verstandene Gesetzmäßigkeiten? Diese kann man normalerweise nicht mittels der  Mathematik besser verstehen. Es gab Fälle, wo man mit Hilfe der Mathematik das ungenügende Verständnis sichtbar machen konnte  (siehe Bells Ungleichung). Diese ungenügend verstandene Gesetzmäßigkeiten sollten normalerweise kein Problem sein. Das wird es noch sehr lange geben. Problematisch wird es meiner Meinung nach, wenn man das ungenügende Verständnis durch (nicht-formale) verbale Formulierungen kaschiert und damit die formale Formulierbarkeit dauerhaft und prinzipiell als unmöglich deklariert. Die Quantenphysik enthält eine Reihe von Beispielen, wo dies der Fall ist.
(4)  Gibt es Gesetzmäßigkeiten, die nur bis zu einem gewissen Präzisierungsgrad praktisch nachvollziehbar oder vorhersagbar (d.h. praktisch berechenbar) sind? Beispiele aus der Physik: Statistische Mechanik, nicht-deterministische Prozesse (Quantenphysik), kollektives Verhalten).

PH: Wenn ich Sie recht verstehe, vertreten Sie folgende Vorstellungen: (1) Bei den meisten Wissenschaftsdisziplinen, ganz besonders jedoch in den Naturwissenschaften, geht es primär darum, Gesetzmäßigkeiten zu erkennen (2) Erkenntnisse möglichst sauber zu formulieren. (3) Bei wissenschaftlicher Zielsetzung „Gesetzmäßigkeiten zu erkennen“ ist nicht ersichtlich, dass wissenschaftliche Paradigmen eine erkennbare Rolle spielen  bzw. dass es jemals wissenschaftlichen Paradigmenwechsel gegeben hätte.

Für mich hat der Begriff 'Paradigma' folgende Bedeutung: Ein Paradigma ist eine grundsätzliche Denkweise. Seit dem späten 18. Jahrhundert bezeichnet Paradigma eine bestimmte Art der Weltanschauung. Die gewaltigen Fortschritte wissenschaftlicher Arbeit und Erkenntnisse haben bewirkt, dass wir heute weniger von Weltanschauung als vielmehr von einer wissenschaftlicher Sicht bzw. Verständnis sprechen,  naturwissenschaftliche Phänomene zu betrachten. Ein Beispiel für einen grundlegenden wissenschaftlichen Wandel (Wechsel), die Phänomene unseres Planetensystems zu erklären, war der grundlegende Wandel von einem geozentrische Weltbild zu einem heliozentrische Weltbild. Der katholische Klerus vermochte diesen Wandel erst 300 Jahre nach Galileo Galilei nachzuvollziehen. Ihre Kommentare haben mich veranlasst, meine vorangegangene Aussage ein wenig zu präzisieren:

Die führenden Vertreter der Epoche der Aufklärung im 18. Jahrhundert vertraten eine grundlegend neue Perspektive für die Betrachtung der Natur. Sie waren zwar nach wie vor überzeugt, dass der Mensch und die Natur einem göttlichen Schöpfungsakt zu verdanken ist. Sie waren sich aber sicher, dass Menschen nicht mehr ausschließlich unbedingtem göttlichen Eingebungen unterworfen sind. Menschen besitzen die Fähigkeit, die Phänomene der Natur mittels Methoden der Mathematik zu erklären. Eine lange gehegte Vermutung wurde als neue absolute Wahrheit verkündet: Phänomene der Natur sind berechenbar. Ohne Ursache keine Wirkung. Im 21. Jahrhundert sind führende Vertreter der Wissenschaft dabei, den Mythos zu begraben, dass Mathematik die absolut einzig gültige Sprache sei, um alle Phänomene der Natur zu erklären. Es existieren hinreichende Erkenntnisse, dass während der natürlichen Evolution unvorhersehbare Strukturen ohne göttlichen Einfluss entstanden sind. Phänomene der natürlichen Evolution und die Möglichkeiten, nicht berechenbare Phänomene mittels mächtiger Computer zu simulieren, haben eine Lawine zusätzlicher wissenschaftlichen Sichtweisen ausgelöst.

Am Rande sei bemerkt: Ich betrachte Mathematik nicht als Naturwissenschaft sondern als eine Methode. Das ist schon deshalb angebracht, weil es für Mathematik keine allgemein anerkannte wissenschaftliche Definition gibt. Für Galileo Galilei war „Mathematik das Alphabet, mit dessen Hilfe Gott das Universum beschrieben hat“. Johann Wolfgang von Goethe betrachtete Mathematiker als eine Art Franzosen: „Redet man zu ihnen, so übersetzen sie es in ihre Sprache, und dann ist es alsobald ganz etwas anderes.“ Ich schließe mich Albert Einsteins Ansicht an: „Die Mathematik handelt ausschließlich von den Beziehungen der Begriffe zueinander ohne Rücksicht auf deren Bezug zur Erfahrung.“

Zurück zum Anfang: Den Aussagen (1) und (2) ist nichts hinzuzufügen. Die Vorstellung (3), dass wissenschaftliche Paradigmen keine erkennbare Rolle spielen bzw. dass es keine historischen wissenschaftlichen Paradigmenwandel bzw. Paradigmenwechsel gegeben hätte, teile ich nicht.

HD: Ich bin sicher, dass Sie von Paradigmen und Paradigmenwechsel in der Wissenschaft mehr verstehen als ich. Deshalb werde ich Ihre Benutzung des Begriffs Paradigmenwechsel nicht mehr in Frage stellen. Zweifel bleiben bei mir jedoch noch, ob es angebracht ist, den von Ihnen gesehenen Paradigmenwechsel mit dem Begriff "Berechenbarkeit" zu assoziieren, genauer, mit der Einsicht, dass in und mit der Wissenschaft viel weniger berechenbar zu sein scheint als noch vor 400 Jahren geglaubt wurde.

Bei der Suche nach Unterstützung bezüglich der Benutzung des Begriffs "Berechenbarkeit" bin ich auf ein Buch gestoßen (Bernd-Olaf Küppers: "Die Berechenbarkeit der Welt"). Küppers ist Physiker und Philosoph und arbeitete am Max-Planck-Institut für Biophysikalische Chemie in Göttingen. Das Buch habe ich vor vier oder fünf Jahren gelesen. Es wurde 2013 auch in diesem Blog besprochen. Ich sehe gerade, dass eines der letzten Kapitel des Buches die Überschrift "Der Aufstieg der Strukturwissenschaften" hat. Das scheint mir sehr nahe an Ihrer Sicht zu sein.

Bei dem Versuch nachzuvollziehen, wo genau Sie den Paradigmenwechsel sehen, kommt mir als erstes das Thema "Ende der mechanistischen Weltanschauung" in den Sinn.  Das Ende der mechanistischen Weltanschauung wurde mir durch die (halb-) philosophischen Bücher von Heisenberg bekannt gemacht. Heisenberg hat seine Sicht natürlich mit seinen Erkenntnissen aus der Quantenmechanik begründet. Eine noch radikalere Infragestellung des mechanistischen Weltbilds findet sich in dem Buch von Sheldrake ("Der Wissenschaftswahn"). Das Buch wurde mir (und den anderen Zuhörern seines Vortrags) von Prof. Fahr, einem Astrophysiker, empfohlen. Hier ein kleiner Auszug aus dem Klappentext: "Lässt sich die Welt rein mechanistisch erklären? Sehen wir uns selbst wirklich als genetisch programmierte Maschinen? Kommt das Bewusstsein tatsächlich aus dem Gehirn?"  Mir ist Sheldrake etwas zu radikal, auch wenn ich bei  vielen Punkten seine Zweifel an der "wissenschaftlichen Erklärbarkeit" (nicht nur der Berechenbarkeit) und seine Kritik an einer gewissen Dogmatik in der Wissenschaft teile.

PH: Der Biochemiker und Zellbiologe Rupert Sheldrake ist mir durch sein 1988 erschienenes „Buch „Das Gedächtnis der Natur – Das Geheimnis der Entstehung der Formen der Natur“ aufgefallen. Sheldrakes Arbeitshypothese beruht auf der Vorstellung „morphogenetischer Felder“. Danach wird angenommen: „Der Ort des embryonalen Geschehens und der Formbildung ist ein Feld (im physikalischen Sprachgebrauch), dessen Grenzen mit denjenigen des Embryos im Allgemeinen nicht  zusammenfallen, vielmehr dieselben überschreiten. ...Ein Feld ist die Rahmenbedingung, der ein lebendiges System seine typische Organisation und seine spezifischen Aktivitäten verdankt.“ Sheldrake vertritt offensichtlich eine physikalische Perspektive.

Sheldrakes Thesen haben sich nicht bewährt. Die biologischen Strukturbildungen sind wesentlich komplexer als Sheldrake annahm und lassen vermuten, dass Selbstorganisation eine entscheidende Rolle spielt. Ihre Vermutung stimmt, dass Bernd-Olaf Kippers strukturwissenschaftliche Ansätze in vieler Hinsicht meinen Vorstellungen entsprechen: „Heutzutage bilden die Strukturwissenschaften die Basiswissenschaften für das Verständnis komplexer Phänomene schlechthin. … Dass der Anteil der Strukturwissenschaften ständig zunimmt, kann man unter anderem daran erkennen, dass die Computersimulation zunehmend das klassische Experiment in den Naturwissenschaften verdrängt. … Tatsächlich scheinen die Strukturwissenschaften zu einem einheitlichen Wirklichkeitsverständnis, das heißt zu einem objektiven Sinnzusammenhang und einem objektiven Anschauungsganzen zu führen, das nunmehr alle Formen wissenschaftlicher Erkenntnis umfasst. Und es mag geradezu paradox erscheinen, dass es ausgerechnet die so facettenreiche Wissenschaft des Komplexen ist, die wieder zur Einheit des Wissens und damit zur Einheit der Wirklichkeit zurückführt.“ (Bernd-Olaf Küppers: Die Strukturwissenschaften als Bindeglied zwischen Natur- und Geisteswissenschaften).

BD: Ich finde es toll, dass Sie beide sich auch über den Sinn und Zweck der Wissenschaft Gedanken machen. Ich stimme Ihnen voll zu, dass es nicht die primäre Aufgabe der Wissenschaft ist, die Realität zu mathematisieren. Sie sollte lediglich versuchen, die Realität zu erklären, so dass möglichst viele Leute sie verstehen. Die Mathematisierung bewirkt nicht selten genau das Gegenteil.

Da wir nicht am Punkte Null beginnen, ist es ein Teil der Aufgabe auf frühere Fehlversuche oder Irrwege aufmerksam zu machen. Diese nennt man Fiktionen oder Mythen. Ein solcher Mythos ist der Glaube, dass Gott Mathematiker sei, und alles was er schuf, mathematische Konstrukte sein müssten. Ich erinnere mich noch lebhaft an einen Kollegen, der vehement diese Meinung vertrat. Wer nicht für Mathematik werbe, wirbt nicht für Gott, oder das Göttliche im Menschen und in der Welt. Er negiere die Seele, ja das Geistige und den Sinn. Der Ausdruck, den schon die Griechen für solche Leute hatten, war der der Banause. Ein ‚banausos‘ war ein Unfreier, einer der am Ofen arbeitete. Diese Leute sind für Kunst und Wissenschaft unfähig.

Ich möchte meine Sicht von Wissenschaft in den Rahmen (engl. frame) folgender Fragen stellen. Was gibt es alles und warum gibt es dies? Wie und wohin wachsen die unterschiedlichen Entitäten oder Organismen? Wie breiten sie sich aus oder wie und warum bewegen sie sich fort?

Als Beispiele: Warum ist der Abendhimmel in Sindelfingen, so wie er ist? Warum ist die Baie des Anges bei Nizza, so wie sie ist und warum ist der Hans Diel, so wie er ist? Wie und wann sind sie entstanden, welche Ursache und Einflüsse spielten eine Rolle? Wie wird die Entwicklung weitergehen und wie wird sie enden? Eine Entwicklung zu verstehen, heißt zu wissen, wie sie anfing und wie sie weitergeht. Wir können dann Vorhersagen machen. Das verleiht Macht.

Ob es dabei Gesetzmäßigkeiten gibt, ist für mich sekundär. Natürlich gibt es Wiederholungen. Ob diese wie ein Gesetz, eine Regel oder Norm wirken, setzt voraus, dass jemand dies als zweckmäßig erkannt hat oder zufällig entdeckt hat. Das Fehlen von Gesetzmäßigkeiten könnte bedeuten, dass es keine Ordnung gibt, dass keine ordnende Hand wirksam war. Wir Menschen suchen in allem nach Mustern und Gesetzen. Wir freuen uns wie ein Kind, wenn wir welche gefunden haben. Am Himmel (in Sifi), am Meer (in Nizza) oder in der gesamten Biologie gibt es nur recht wenige davon. Wir nehmen aber an, es gäbe deren viele, überall und für alles. Bei den drei genannten Beispielen überwiegt der Eindruck des Einmaligen, das Fehlen von Regelhaftem.

Was Charles Darwin erklärte, war die Vergangenheit von Flora und Fauna. Über die Zukunft ließ er sich nicht aus. Er konnte nämlich keine geologischen Verschiebungen oder Klimaänderungen vorhersagen. Wir tun uns heute noch schwer damit. Die erfolgreichen Wissenschaften suchen primär in der Vergangenheit. Sie versuchen verloren gegangenes Wissen bzw. das Wissen der Vergangenheit wieder zu erwerben. Beispiele sind Archäologie, Astronomie, Biologie, Chemie, Geologie, Medizin, Klimakunde, Kosmologie, Plattenverschiebungen und Vulkanologie. Genauso sehr wie das Wissen interessiert uns auch das Nicht-Wissen früherer Zeiten, also Fiktionen und Mythen. Für die Äonen, in denen es Menschen noch nicht gab, müssen die Steine oder die Sterne reden.