Donnerstag, 8. November 2018

Großbritannien, China und die Opiumkriege

In einem der letzten SPIEGEL-Hefte (40/2018) las ich eine Besprechung des soeben erschienenen historischen Romans ‚Gott der Barbaren‘ von Stephan Thome. Der Autor, Jahrgang 1972, heißt mit bürgerlichem Namen Stephan Schmitt und stammt aus Biedenkopf in Nordhessen. Er wohnt in Taiwan. Weniger der Preis von 18,99 Euro als die 720 Seiten hielten mich davon ab, das Buch sofort zu lesen. Inzwischen habe ich dies nachgeholt. Ich gebe hier zunächst nur den historischen Rahmen der Handlung wieder und stelle einige der Handelnden vor, soweit sie historisch belegt sind. Damit gehe ich auch ganz kurz auf die Romanhandlung ein. Sie steigert das, was an sich schon spannend und reichlich verworren war, und stellt einen Bezug zur deutschen Geschichte her.

Hongkong und der erste Opiumkrieg

Im Ersten Opiumkrieg (1839-1842) machte England den ersten Versuch, das China der Mandschu-Dynastie für den westlichen Handel zu öffnen. Unter Handel wurde vor allem der Import von Opium gesehen, das in Indien angebaut wurde. Englische Händler im Verband mit der Ostindienkompanie bedrängten das Parlament. Eine Flotte, bestehend aus 16 Kriegsschiffen (mit 500 Kanonen und 4000 Mann an Bord)  besetzte die Insel Hongkong als Operationsbasis. Die Briten besetzten außer Hongkong noch drei Häfen: Ningbo und Zhoushan am Jangtsekiang und Tianjin am Beihai. Ein in Tianjin abgeschlossener Vertrag, in dem China auf Hongkong verzichten und hohe Reparationen zahlen sollte, lehnte der Kaiser ab. Daraufhin setzten die Engländer den Krieg fort und eroberten Nanjing. Der dort 1842 abgeschlossene Vertrag gilt in China als der erste der ‚Ungleichen Verträge‘. Er verpflichtete die Chinesen zur Öffnung der Handelshäfen Kanton, Xiamen, Fuzhou, Shanghai und Ningbo für Ausländer, zur Duldung weitgehend unbeschränkten Handels mit Opium, zur Abtretung Hongkongs sowie zu Reparationszahlungen. Die Insel Hongkong (chinesisch für Duftender Hafen) wurde  erst im Jahr 1997 an China zurückgegeben. Seitdem ist es eine Sonderverwaltungszone unter Beibehaltung einer freien Marktwirtschaft und hoher innerer Autonomie.

Zweiter Opiumkrieg und Besetzung Bejings

Der Zweite Opiumkrieg (1856-1860) brach aus mit der Beschlagnahme eines unter englischer Flagge segelnden Schiffes, das Opium und andere Schmuggelware nach Kanton brachte. Als die vorwiegend chinesischen Besatzungsmitglieder von den Behörden nicht freigelassen wurden, erklärten die Briten den Krieg. Um die angebliche Hinrichtung eines französischen Missionars zu rächen, schloss sich Frankreich an. Im Grunde suchten beide Staaten eine Erweiterung ihrer Einflusssphäre in China.

Im Jahre 1857 wurde Kanton eingenommen und im Jahr darauf die Dagu-Festungen in der Nähe von Tianjin. Es kam zur Unterzeichnung des Vertrags von Tianjin, welcher gleichzeitig auch von Frankreich, Russland und den USA verhandelt wurde. Dieses Abkommen öffnete elf weitere Häfen für den Handel mit dem Westen. Als China zögerte, diesen zweiten der „Ungleichen Verträge“ anzuerkennen, rüsteten 1860 Briten und Franzosen zum Angriff auf Bejing. Beteiligt waren 11.000 Briten (zum großen Teil Inder) und 6.700 Franzosen. Die Truppen besetzten die Stadt und verwüsteten anschließend den Sommerpalast des Kaisers. Auch die Russen griffen ein, mit der Folge, dass China Gebiete in der Mandschurei, am Usuri und am Amur an das Zarenreich verlor. Als im darauf folgenden Jahr der Kaiser starb, übernahm Prinz Gong die Macht, zusammen mit der Kaiserwitwe Ci Xi. Diese hat China 42 Jahre lang regiert und trat vor allem während des Boxeraufstands 1899-1901 in Erscheinung. An seiner Niederschlagung war auch das deutsche Kaiserreich beteiligt.

Taiping-Aufstand
           
Genau zur gleichen Zeit, als China sich gegen britische und französische Angriffe zu wehren hatte, wurde es durch innere Unruhen erschüttert. Hóng Xiùquán (1814-1864), der aus einer bäuerlichen Familie der Provinz Guandong im Süden Chinas entstammte, war mehrmals bei den staatlichen Prüfungen durchgefallen. Er verfiel in geistige Wahnvorstellungen, während der er Visionen gehabt haben soll. Diese basierten auf Vorstellungen, auf die ihn ein deutscher protestantischer Theologe gebracht hatte, dessen Übersetzungen ins Chinesische er gelesen hatte. Hauptberuflich arbeitete er für ein britisches Unternehmen, das im Opiumhandel tätig war. Er gründete 1837 eine dem Christentum nahe stehende religiöse Gemeinschaft, die er ‚Großes Reich des Himmlischen Friedens’ (chinesisch: tàipíng tiānguó) nannte. Er selbst bezeichnete sich als ‚Himmlischer König’ (chinesisch: tiānwang) und jüngeren Bruder Jesu. Man verteilte Bibeln gratis und predigte die Zehn Gebote. Man zeigte keinerlei Toleranz gegen andere Glaubensbekenntnisse. Hong war ein Hakka und gehörte damit einer benachteiligten Volksgruppe an. Er wollte zunächst gegen die Mandschu-Herrscher kämpfen. 

Aufstandsgebiet der Taiping

Hans Magnus Enzensberger hat im SPIEGEL 3/2015 dem Taiping-Aufstand ein mehrseitiges Essay gewidmet. Die Überschrift lautete ‚Der vergessene Gottesstaat‘. Es sei einer der größten Bürgerkriege der Weltgeschichte gewesen. Der himmlische König habe sich wie später die Kommunistische Partei Chinas, der modernsten Techniken bedient, um seine  Ziele zu erreichen. Ich zitiere Enzensberger für einige Details:

Am kaiserlichen Hof wollte niemand etwas von solchen Innovationen wissen. Hong Xiuquan knüpfte zur Verbreitung seiner Botschaft ein engmaschiges Netz von Kurieren und gründete Druckereien, um Flugschriften und Anweisungen unter das Volk zu bringen. Für die Kranken ließ er Spitäler bauen. Um für den Nachschub zu sorgen, legte er Straßen an. Sogar den Bau von Eisenbahnen soll er geplant haben. … Obwohl Plünderungen ihnen verboten waren, fielen seine Truppen über die Dörfer her. Sie konfiszierten das Vieh und nahmen die Vorräte der widerspenstigen Bauern in Beschlag. Doch Beutezüge und Lösegeldzahlungen reichten nicht hin, um Hongs Kriegskasse zu füllen. Dazu war er auf Geschäfte mit fremden Waffenhändlern, Schmugglern, Abenteurern und Schiebern angewiesen. Und was die Frauen betraf: So streng er sie zum Gehorsam anhielt, so gern brauchte er sie als Hilfstruppen und setzte sie als Attentäterinnen ein. … Klar ist auch, dass das Reich der Taiping nicht von außen besiegt worden, sondern an seinen inneren Widersprüchen zugrunde gegangen ist. … Je erfolgreicher und selbstsicherer die Taiping anfangs waren, desto brüchiger wurde ihre Herrschaft. Ihr Anführer ernannte immer mehr Vizekönige, "Prinzen", "Minister" und "Gouverneure", die miteinander rivalisierten und ihm die Herrschaft streitig machten. Zerwürfnisse, Niederlagen und Hungersnöte häuften sich. Vetternwirtschaft, Bestechlichkeit, Gier und Grausamkeit der Kämpfer taten ein Übriges. Hong selbst zog sich von seinen Anhängern zurück und setzte sich über seine eigenen Regeln hinweg, indem er sich einen Harem von 88 Beischläferinnen hielt und einem absurden Luxus frönte.

Zwanzig bis dreißig Millionen Todesopfer soll diese  Erhebung gefordert haben, mehr als 600 Städte wurden von ihr eingenommen und achtzehn Provinzen beherrscht. So viele Menschen kamen ums Leben, dass die Kämpfe schließlich aus Mangel an Kämpfern endeten. Beim Lesen der Gräueltaten der Taiping-Rebellen hatte ich dieselbe Idee, die auch Enzensberger zum Ausdruck bringt. ‚Die Parallelen zum Dschihad des "Islamischen Staates", der sich heute zwischen dem Mittelmeer und Pakistan ein gewaltbereites Imperium zu errichten sucht, sind unübersehbar.‘ Ob man vom Zusammenbruch der Taiping-Bewegung auf das Ende des IS hoffen darf, sei dahingestellt.

Romanfiguren und andere

Dem Charakter eines Romans entsprechend sind in Thomes Buch mehrere Figuren sehr nuancenreich beschrienen. Einige davon sind historisch, andere nicht.

Der General Zeng Guofan (1811-1872) vertrat das alte China. Er stammte aus einer alten, nicht sehr wohlhabenden Familie der Provinz Hunan und hatte alle Prüfungen des Hofes bestanden. Er war Anhänger der konfuzianischen Lehre und liebte besonders die Schriften eines Dichters aus seiner Heimatprovinz. Er verfasste Gedichte und philosophische Essays. Als die langhaarigen Anhänger Hongs, die dem Gott der Barbaren huldigen und die Ahnentafeln zerstörten, in die Provinz Hunan einfielen, organisierte er den Widerstand. Mit seiner halb-privaten Hunan-Armee befreite er die Hauptstadt Changsha. Anschließend belagerte er die Stadt Anqing am Jangtsekiang und verhinderte das weitere Vordringen der Aufständischen nach Westen. Ab dem Jahre 1860 belagerte er Nanjing mit 20.000 Soldaten. Die Belagerung dauerte vier Jahre lang (bis Juli 1864) und bereitete der Taiping-Bewegung ein blutiges Ende.

Der stets  im Namen der Königin Victoria und des Parlaments auftretende Brite war Lord Elgin (1811-1863). Sein voller Name lautete James Bruce, 8. Earl of Elgin und 12. Earl of Kincardine. Sein Vater hatte die Friese der Akropolis aus Athen ins Britische Museum nach London gebracht. Lord Elgin verkörperte in China den englischen adeligen Diplomaten, der stets langfristigere Ziele im Kopf hatte als die Generäle ihrer Majestät. Als Anhänger des Philosophen Hegel sah er sich als ‚Weltgeist auf dem Wasser‘. Eigentlich träumte er stets von seinem schottischen Landgut und seiner Frau, bei denen er viel lieber sein wollte als im verworrenen China. Dass englische Missionare in Hongs Theologie eine Frühform des Christentums, den Arianismus, entdeckten, steigerte die politische Verwirrung.

Die folgende Person ist frei erfunden. Sie heißt Philipp Johann Neukamp. Vielleicht wurde sie eingefügt, um den Stoff für deutsche Leser interessanter zu machen. Jedenfalls stellt er einen Bezug zur deutschen Geschichte her. Er hatte in Berlin mit Robert Blum (1807-1848) zusammengearbeitet. Blum war ein prominenter Abgeordneter des Frankfurter Paulskirchen-Parlaments, der 1848 in Wien standrechtlich erschossen wurde. Im Auftrage der Basler Mission ging Neukamp nach Hongkong. Hier lernte er Vertreter der Taiping-Rebellion kennen. Mehrere Versuche, nach Nanjing zu gelangen, schlugen fehl. Als er es schließlich geschafft hatte, wurde er dort sehr bewundert und verehrt. Kurz vor der Eroberung Nanjings gelang es ihm, der Belagerung zu entkommen und nach Amerika zu fliehen.

Wen ich in dem Buch erwartet habe, aber nur in einem Nebensatz erwähnt fand, war Charles George Gordon (1833-1885). Er hatte sich bereits im Krimkrieg gegen die Türkei ausgezeichnet. In China leitete er das Söldnerheer, das zuerst die Stadt Shanghai gegen einen Angriff der Taiping-Rebellen erfolgreich verteidigte. Da das offizielle England sich neutral verhielt, zog Gordon mit 4.000 indischen und chinesischen Söldnern in Nanjing ein. Bekanntlich übernahm Gordon viel später nochmals eine riskante Mission, als er 1885 im Sudan gegen den Aufstand des Mahdi kämpfte und in Karthum sein Leben verlor.

Schlussgedanken

Zweifellos gelingt es Thome den vielen politischen, sozialen, religiösen und weltanschaulichen Themen und Überzeugungen, die hier zur Diskussion standen, einen angemessenen Ausdruck zu verleihen. Wir wissen immer noch viel zu wenig über den langen Weg, den China ging, bis es zu seiner heutigen Rolle in der Welt fand. Chinesen sind sich dessen durchaus bewusst. Dass auch bei uns ein Interesse an romanhaften Darstellungen von Geschichte besteht, ist nicht zu leugnen. An die sprachliche Klasse eines Daniel Kehlmann kommt Thome jedoch nicht heran.

Sonntag, 4. November 2018

Denkweisen der Theoretischen Physik – ein Dialog

Den nachfolgenden Dialog zweier Freunde und Ex-Kollegen finde ich lesens- und diskussionswert. Berührt wird das Verständnis der Welt, das die heutigen Naturwissenschaften anbieten. Mit Erlaubnis der beiden Autoren, Peter Hiemann (PH) in Grasse und Hans Diel (HD) in Sindelfingen, gebe ich die Essenz wieder.

PH: Im Novemberheft von Spektrum der Wissenschaft (SdW) sind zwei Artikel des Physikers und Wissenschaftsjournalisten Robert Gast, die für einen Laien wie mich ziemlich verständlich sind, und mir gleichzeitig einen interessanten Blick in die Denkweisen einiger aktueller theoretischer Physiker gegeben haben.

Im Artikel “Teilchenphysik – Trügerische Eleganz“ bezieht sich Gast auf auf das Buch “Das hässliche Universum“ der Physikerin Sabine Hossenfelder. Unter anderem konnte ich erfahren, dass theoretische Physiker „einen Dschungel an Modellen für Physik jenseits des Standardmodells“ geschaffen haben, und dass einige theoretische Physiker vermutlich in Sackgassen geraten sind. Hossenfelder  moniert: „Sie glauben, Mutter Natur sei elegant und einfach“.  Hossenfelder ist suspekt, dass „viele ihrer Kollegen vergäßen, dass „mathematische Ästhetik Physiker schon oft in die Irre geführt habe“. Die Idee, dass eine “Theorie von allem“ „also irgendwann schon dann als wahr gilt, wenn sie die einzige weit und breit ist, die keine Widersprüche zu etablierten Naturgesetzen hervorruft“, findet der Nobelpreisträger Frank Wilczek „wirklich abstoßend“. Hossenfelder hofft auf den Idealfall, dass „eines der Projekte, die nach Dunkler Materie suchen, einen Befund ausspuckt, der theoretische Physiker auf die richtige Spur bringt. 

Im Artikel “Naturgesetze – Am Ende der Natürlichkeit“ befasst sich Gast mit „Grenzen, ab der die Formeln einer effektiven Theorie nicht mehr gültig sind“.  Gast ist der Ansicht, dass Erfolge in der Festkörperphysik „Physiker in dem Glauben bestärkt haben, dass die Natur  ‚emergent‘ ist: Danach sollte es möglich sein, die bei großen Abständen gültigen Naturgesetze aus denen kleinerer Distanzen herzuleiten“ Ich vermute, nicht in deterministischen aber kausalem Sinn: Eigenschaften Quarks → Protonen → Atomkernen → Atome lassen sich als emergente Phänomene auffassen. “Schließlich lässt sich mit  Chemie und Thermodynamik die Brücke zu makroskopischen Phänomenen schlagen“. Physiker verwenden die Bezeichnung «natürlich», wenn Abläufe auf einer bestimmten Skala nicht allzu empfindlich auf das reagieren, was auf einer viel kleineren Skala vor sich geht. Einige Physiker sind nach der Entdeckung des Higgs-Teilchens dazu übergegangen, Erweiterungen des Standardmodells zu entwerfen, die bewusst ‚unnatürlich‘ sind. Denen geht es darum, Quantenfeldtheorien zu entwickeln, in denen es völlig normal ist, wenn sich physikalische Prozesse über viele Skalen hinweg beeinflussen (jedoch nicht auf  Renormierung angewiesen sind).

Beim Lesen des Artikels habe ich öfters an Sie gedacht, da sie ja versuchen ein interaktives Modell der Quantenphysik zu entwerfen. Der Quantenfeldtheore zufolge sind nicht Elementarteilchen die grundlegenden Bausteine des Kosmos, sondern ihnen entsprechende Felder. Ich hatte auch ständig meine Vorstellung biologischer und neurobiologischer Prozesse vor Augen, die programmatisch aber selbstorganisierend. ablaufen. Gelingt es am Ende theoretischen Physikern, wichtige Beiträge zur Erklärung des Phänomens ‚Selbstorganisation‘ zu liefern?


HD: Ich habe die Artikel auch gelesen. Außerdem habe ich auch die englische Version des Buches von Sabine Hossenfelder gelesen. Das Buch hat mir sehr gut gefallen. Das habe ich auch Frau Hossenfelder in einer Email geschrieben. Der Titel der englischen Ausgabe ist "Lost in Math − How beauty leads physics astray". Ich finde, dass dieser Titel schon eine stärkere Aussage enthält als der deutsche Titel. Auch habe ich den Eindruck, dass der Artikel im SdW  die im Buch formulierte Kritik an der extensiven physikalischen Interpretation von mathematischen Formeln nur ungenügend wieder gibt. Vermutlich teilt Robert Gast Frau Hossenfelders Ansichten nur zum Teil.

Dass es in der theoretischen Physik neben dem Standardmodell einen "Dschungel" von alternativen Modellen gibt, halte ich für gut und normal. Mich stört nur, dass neue Theorien  es so schwer haben, wenn sie vom Mainstream abweichen. Wenn ich mich recht erinnere, kritisiert das Frau Hossenfelder auch.

In dem Buch von Frau Hossenfelder gibt es auch ein Kapitel über "biases" in science (nicht nur in der Physik) das mir sehr gut gefallen hat. Sie bespricht da alle möglichen Arten von Biases (confirmation bias, motivated cognition, sunk cost fallacy, in-group bias, attentional bias, etc.). Am besten gefallen hat mir, wo sie schreibt: "Then there is the mother of all biases, the bias blind spot - the insistence that we certainly are not biased."…  "And we insist that our behaviour is good scientific conduct, based purely on unbiased judgement, because we cannot possibly be influenced on social and psychological effects, no matter how well established."

Ich bin auch der Meinung, dass die Natur im Kleinsten (also auf der Quantenskala)  ‚emergent‘ ist. Ich finde es jedoch unseriös dies zu glauben/behaupten/vermuten, wenn man das nicht durch ein (mögliches) Modell untermauern kann. Darum versuche ich ein derartiges Modell zu entwickeln. Ob man bei dem, was ich da entwickele, von "Selbstorganisation" reden kann, müsste ich mit jemand besprechen der ein besseres Verständnis als ich von "Selbstorganisation" hat.

PH:
Auch ich halte es für gut und normal, wenn Naturwissenschaftler viele Arbeitshypothesen verfolgen. Ich habe aber Hossenfelder so verstanden, dass sie bei theoretischen Physikern einen mehr oder weniger undurchsichtigen "Dschungel" von Arbeitshypothesen vorfindet. Theoretische Physiker versuchen, in diesem "Dschungel" neue notwendige, grundlegende Erkenntnisse zu finden, die von allen Physikern akzeptiert werden können. In den Naturwissenschaften Chemie, Molekularbiologie und Neurobiologie existieren von allen Experten akzeptierte Erkenntnisse, die für eine Fülle interessanter Forschungsprojekte eine hinreichende Grundlage bieten. 
Übrigens bin ich der Ansicht, dass die meisten Geisteswissenschaftler heute nicht in die Nähe gesicherter Erkenntnisse gelangen. Hossenfelders Aussage mag ihrer Erfahrung mit theoretischen Physikern entsprechen: "And we insist that our behaviour is good scientific conduct, based purely on unbiased judgement, because we cannot possibly be influenced on social and psychological effects, no matter how well established." Aus meiner Sicht sind für Experten der Bereiche Chemie, Molekularbiologie und Neurobiologie die Grundlagen 'well established'. Natürlich sind alle Menschen psychologisch sensitiv.

Das Thema Selbstorganisation wird heute in vielen Wissensbereichen ernst genommen. Nach meinem Verständnis hat das Thema seinen Anfang mit Überlegungen genommen, die die  Neurobiologen Humberto Maturana und Francisco Varela (Buch "Baum der Erkenntnis") zum Thema  'Autopoiese' angestellt haben. Niklas Luhmann hat den Begriff in seinen Vorlesungen "Einführung in die Systemtheorie" übernommen.  'Autopoiese' wurde später mit 'Selbstorganisation' übersetzt. Bernd-Olaf Küppers verweist in seinem Buch "Die Berechenbarkeit der Welt" auf neue wichtige Wissenschaftszweige wie die 'Theorie der Selbstorganisation' oder der 'Netzwerktheorie'. Nach meinem Verständnis ist das Phänomen Selbstorganisation bei Systemen zu beobachten, innerhalb derer eine sehr große  Anzahl von Elementen und höher geordnete Funktionseinheiten interagieren. Ein sich selbst organisierendes System scheint über Funktionseinheiten zu verfügen, die sich fortwährend  über den Status seiner Elemente und Funktionseinheiten informieren, um den Ablauf des Gesamtsystems aufrecht zu erhalten, ohne dass es einer zentralen Steuerung bedarf. 

Entscheidend für die Erhaltung eines Gesamtsystems scheint die Existenz sehr effektiver Archive und Speichermedien zu sein. Bei molekularbiologischen Systemen ist DNA das effektive Archiv und Speichermedium für Organismen, bei neurobiologischen Systemen sind Gedächtnisse die effektiven Archive und  Speichermedien für Erinnerungen, Theoriegebäude und Denk- und Verhaltensweisen. Einige Ansätze von Funktionseinheiten 'intelligenter' Computersysteme scheinen in eine ähnliche Richtung zu gehen.

Aus meiner Perspektive und aufgrund meines unvollständigen physikalischen Wissens kann ich nicht erkennen, dass die derzeitige theoretische Physik  über einen Systemansatz mit Elementen und Funktionseinheiten verfügt, der Überlegungen  zum Thema 'Selbstorganisation' zulässt.

HD: Auch in der Physik gibt es natürlich seit Newton grundlegende Erkenntnisse die von allen Physikern akzeptiert werden. In den letzten hundert Jahren sind die Erkenntnisse enorm gewachsen. Die Physiker sind jedoch noch nicht soweit, dass sie sagen können jetzt haben wir Alles verstanden (auch wenn es einige gibt die meinen sie hätten FAST alles verstanden). Neben der Astrophysik wo noch vieles unverstanden ist, sehe ich noch den Bedarf für (1) ein besseres Verständnis der Quantentheorie und (2) ein kompatibles Verständnis von Quantentheorie und Allgemeiner Relativitätstheorie. Ich sehe zwei Probleme die dazu geführt haben, dass die Suche nach einem besseren Verständnis zu einem "Dschungel" von unausgegorenen Theorien geführt hat:

(1) Die verbesserten Theorien sollten/müssten durch neue Experimente und Beobachtungen  unterstützt werden. Neue Experimente sind jedoch im Kleinsten kaum noch machbar oder extrem aufwendig (e.g. CERN LHC); und im Größten überhaupt nicht möglich. Nur in der Astrophysik konnte man auf Grund vieler neuer Beobachtungen neue Erkenntnisse gewinnen, die jedoch zunächst nur zu Zweifeln an den bisherigen Erkenntnissen geführt haben.

(2) Physikalische Theorien sollten mathematisch beschreibbar sein. Ich behaupte, dass die Fixierung auf die in der Physik seit Jahrhunderten gebräuchliche (und bewährte) Mathematik den Fortschritt behindert. Ich sehe zwei Punkte die zusätzlich zur traditionellen Mathematik  für die Beschreibung verbesserter Physiktheorien notwendig sind: (a) diskrete Werte anstelle von differenzierbaren Wertebereichen, (2) Algorithmen anstelle von linearen (differenzierbaren) Prozessen.

Ich bin der Meinung, dass bei gewissen Themen auch ungesicherte Erkenntnisse einen (großen) Wert haben können. Man sollte diese Erkenntnisse nur bescheidener verkünden. Sind nicht "Grundlagen" per Definition immer well-established (nicht nur in den Bereichen Chemie, Molekularbiologie und Neurobiologie)? Und wenn sich heraus stellt, dass Grundlagen überarbeitet werden müssen, dann ist das meistens nicht wegen der "Biases" bei ihrer Entstehung.

Seit ungefähr zwei Jahren gibt es in meinen (kausalen) Modellen die Themen "Collective Behaviour" und "Emergenz". Ich weiß nicht ob man bei dem was ich vorschlage von "Selbstorganisation" reden kann. Bei mir haben sich die Themen  "Collective Behaviour" und "Emergenz" (zwangsläufig?) ergeben aus meinem Ansatz mit (1) diskreten physikalischen Einheiten (z.B. Raum und Zeit) und (2) nicht-linearen Prozessen. Ich glaube, dass diese Vorgehensweise richtig ist, nämlich: (a) sich Gedanken machen, wie können gewisse physikalische Prozesse im Detail und auf der Grundlage "gesicherter" Theorien ablaufen, und (b) wenn der so definierte Prozess Ähnlichkeit mit Prozessen hat, die in anderen Wissenschaftsgebieten mit "Selbstorganisation" beschrieben werden, ist es vielleicht sinnvoll Vergleiche zu machen.

Mittwoch, 31. Oktober 2018

Geschäftsmodelle sind oft wichtiger als Technologien – selbst bei der Digitalen Transformation

In einem gedruckten Artikel im Jahre 2006 [1] und in einem Blog-Beitrag des Jahres 2016 befasste ich mich mit dem Thema Geschäftsmodelle. Ich kann dieses Thema allen Ingenieuren und Informatikern nur sehr empfehlen, erst Recht den Wirtschaftsinformatikern. Vor allem Technik-Begeisterte lassen sich leicht dazu verleiten zu glauben, dass schon eine gute technische Idee genügt, um wirtschaftlich Erfolg zu haben. Leider ist es nicht so. Lassen Sie es sich erklären.

Was ist ein Geschäftsmodell?

Ein Geschäftsmodell (engl.: business model) beschreibt, wie man aus einer Idee zu Geld kommt. Der Definition von Oliver Gassmann [2] folgend muss das Geschäftsmodell vier grundsätzliche Fragen beantworten, nämlich:
  • Wer ist der Kunde?
  • Was bietet man an?
  • Wie wird die Leistung erbracht?
  • Wie wird der Wert erzielt? 
Etwas ausführlicher ist die in meinem zitierten Beitrag benutzte Definition aus dem Gabler Wirtschaftslexikon. Sie lautet: 
 
Das Geschäftsmodell bestimmt, (1) was eine Organisation anbietet, das von Wert für Kunden ist, (2) wie Werte in einem Organisationssystem geschaffen werden, (3) wie die geschaffenen Werte dem Kunden kommuniziert und übertragen werden, (4) wie die geschaffenen Werte in Form von Erträgen durch das Unternehmen „eingefangen“ werden, (5) wie die Werte in der Organisation und an Anspruchsgruppen verteilt werden und (6) wie die Grundlogik der Schaffung von Wert weiterentwickelt wird, um die Nachhaltigkeit des Geschäftsmodells in der Zukunft sicherzustellen.

Außerdem muss man wissen, ob es andere Leute gibt, die mit derselben Idee Geld zu verdienen suchen. In meinem oben erwähnten Blog-Beitrag von 2016 habe ich neun verschiedene Geschäftsmodelle gelistet, die für das Software-Geschäft relevant sind. Gassmann und Ko-Autorinnen [2] beschreiben 55 verschiedene Muster.  Bei jedem Muster gibt es einem Hinweis, welche Unternehmen dieses Muster erfunden haben bzw. benutzen. Manche erscheinen mir als etwas zu umfassend, etwa Digitalisierung oder E-Commerce. Andere beziehen sich nur auf einen Aspekt des Geschäftes, wie zum Beispiel die Zahlungsweise (Flatrate, Pay per use).

Laut Gassmann sind es innovative Geschäftsmodelle, die die  Wirtschaft mehr aufwirbeln als alle Produkt- und Prozessinnovationen zusammen. Dabei sind 90% aller Geschäftsmodelle Rekombinationen von vorhandenen Modellen. Die meisten Unternehmen, die scheitern, tun dies, weil sie es versäumten ihr Geschäftsmodell anzupassen.


Geschäftsmodelle nach Gassmann [2]

Beispiele innovativer Geschäftsmodelle

Fast alle Unternehmen, die innerhalb der letzten 50 Jahre von sich reden machten, erreichten dies aufgrund neuer Geschäftsmodelle. Das begann mit den Ketten von Schnellrestaurants (engl. fast food chains) wie McDonald, Burger King und Kentucky Fried Chicken. Neueren Datums ist Starbucks, eine Kette, die ihr Geschäft dadurch macht, dass sie Kaffee teurer anstatt billiger anbietet. Bekanntlich wird mit dem Ambiente, in dem das Getränk genossen wird, ein bestimmtes Gefühl der Zugehörigkeit zu einer Elite mitverkauft.

In der Informatik-Branche hat Apple zwar einige richtungsweisende Produkte lanciert, die konstant hohen Preise lassen sich nur durchhalten dank einer besonderen Image-Pflege als Branchen-Primus. Viel wichtiger als der Erfolg mit seinen Produkten ist die Tatsache, dass Apple den Musikmarkt total umgekrempelt hat. Anstatt im Bündel von je 15-20 Stück werden jetzt einzelne Titel angeboten. Den nächsten Schritt gingen Firmen wie Netflix und Spotify, die nicht die Titel verkaufen, sondern nur das Vergnügen, einen Titel oder ein Video anzuhören bzw. anzuschauen.

In unseren Städten sind die Versuche allmählich sichtbar, wie man dem Erstickungsproblem, das durch den Individualverkehr verursacht wird, entgegen wirkt. Waren die Mietautos, auch wenn sie auf der Straße stehend angeboten wurden, noch eine Erweiterung eines bestehenden Geschäfts, so sind dies die mietbaren Fahrräder nicht mehr. Hier treten neue Agenten auf, sogar aus Singapur oder direkt aus China.

Disruptive und erhaltende Innovationen

In einem vor kurzem erschienenen Buch [4] betont Christoph Keese, ein Vorstandsmitglied des Axel Springer Verlags, dass es vor allem disruptive Innovationen sind, die bestehende Unternehmen gefährden. Deshalb kann es sinnvoll sein, das eigene Geschäft selbst zu zerstören, bevor es andere tun. Normalerweise sind Unternehmen eher dazu bereit, auf erhaltende Innovationen zu setzen. So blieben beim Übergang von Schellack-Schallplatten auf CDs die Verteilungswege und die Preisstruktur erhalten, anders war es bei der Einführung von Online-Musikläden und Streaming-Angeboten (wie Netflix und Spotify). Disruptive Innovationen kommen meist von außerhalb der bestehenden Branche.

Rolle der Technologie

Technologien sind Wegbereiter oder Ermöglicher (engl.: enabler) von Geschäften. Eine Technologie kann die Rahmenbedingungen eines Geschäfts oder einer Tätigkeit total verändern oder eine völlig neue Art von Angeboten ermöglichen. Umgekehrt gilt: Ohne ein Geschäftsmodell ist eine Technologie meist leblos oder irrelevant.

In einem neueren Buch [3] von Gassmann wird erklärt, dass die zurzeit so viel gerühmte digitale Transformation meist auf einem Dreiklang beruht, der digitalen Technik, einer Geschäftsmodell-Innovation und einer Plattform als Angebotsrahmen. Die Plattform ist einerseits eine Architektur, andererseits ein Ökosystem mit Nutzern und unabhängigen Entwicklern. Oft heißt es, dass Plattformen die Bildung von Monopolen fördern. Das sehe ich anders. Sie erleichtern es neuen Anbietern Fuß zu fassen. Diese können eine teure eigene Investition umgehen, wenn sie sich den vorgegebenen Regeln anpassen. Viel entscheidender ist nämlich, dass bei digitalen Produkten die Reproduktionskosten per Einheit gegen Null tendieren. Dadurch ist der Erstanbieter bevorzugt gegenüber den später in den Markt eintretenden Anbietern. ‚The winner takes it all‘ sang einst die Gruppe ABBA.

Oft ist der Plattform-Anbieter nämlich nicht in der Lage, alle Wünsche der Nutzer abzudecken. Dann ist es für ihn sinnvoll auch Dritten den Zugang zu ermöglichen. Das kann sehr locker erfolgen (wie bei Googles Android), oder aber mit strenger Kontrolle von Sicherheit und Qualität (wie bei Apple).

Das Herangehen an neue Geschäfte erfolgt in der Regel in drei Schritten: Erkunden, Pilotieren und Ausweiten. Dabei kommt es vielfach zu Versuch und Irrtum (engl.: trial and error). Viele neue Chancen lassen sich nur auf diese Weise ausloten. Das ist ein Punkt, bei dem Amerikaner die Europäer regelmäßig abhängen.

Europäische und amerikanische Anbieter

Sehr oft wird die Meinung geäußert, dass wir, was neue Geschäfte anbetrifft, ganz auf amerikanische Firmen angewiesen sind. Die folgenden Beispiele widerlegen dies: Skype stammt aus Estland (gehört heute zu Microsoft), Spotify aus Schweden, Booking.com aus Amsterdam und HRS aus Köln. Flixbus ist ein deutsches Unternehmen mit 100 Mio. Kunden und 250.000 Bus-Verbindungen in 28 Ländern. Die Firma besitzt nur einen einzigen Bus selbst. Sie bietet die Strecke München-Berlin für 9,99 Euro an, neuerdings per Flixtrain auch die Strecke Hamburg-Köln für 19,99 Euro. Bei der Bundesbahn kostet dies das Fünffache.

Nach SAP ist es Wirecard, das als zweite Informatik-Firma in Deutschland den Aufstieg in den DAX schaffte. Bekanntlich listet der DAX die 50 wertvollsten Firmen des Landes. Wirecard, mit Sitz in Aschheim bei München, besitzt 24.000 Kunden in der ganzen Welt, für die es den elektronischen Zahlungsverkehr abwickelt. Darunter sind einige andere DAX-Firmen.

Kundenwünsche und mehr

Jeder Marktteilnehmer muss sich Gedanken über die Wünsche seiner Kunden machen. Dabei geht es nicht nur darum, was sie heute haben möchten. Wie sagte schon Henry Ford: ‚Wenn ich Leute gefragt hätte, was sie wollten, hätten sie schnellere Pferde verlangt‘. Etwas moderner ist dagegen die Aussage eines Vertreters des liechtensteinischen Werkzeugherstellers Hilti AG: ‚Unsere Kunden wollen Löcher, keine Bohrmaschinen‘ [3].

Mit anderen Worten, es reicht nicht heutige Kunden zu befragen. Es ist erforderlich deren Bedürfnisse und Wünsche zu abstrahieren oder zu extrapolieren. Nicht jeder Kunde weiß, was in Zukunft technisch möglich ist. Ein Spezialist eines Fachgebiets sollte da einen Wissensvorsprung haben. Den muss und darf er ausnutzen, zum Nutzen der Kunden und zu seinem eigenen Nutzen. Auch ist es nicht damit getan, nur die Kunden zufrieden zu stellen. Wer sie begeistert, ja entzückt, hat die Nase vorn.

Weitere Referenzen 
  1. Endres, A.: Geschäftsmodelle und Beschäftigungspotentiale in der Software-Industrie. Informatik Forsch. Entw. 21, 1/2 (2006), 99-103  
  2. Gassmann, O., Frankenberger, K., Csik, M.: Geschäftsmodelle entwickeln. 2013
  3. Gassmann, O., Sutter, P.: Digitale Transformation im Unternehmen gestalten. 2016
  4. Keese, C.: Disrupt yourself. 2018

Freitag, 26. Oktober 2018

50 Jahre Software Engineering – Erinnerungen an Garmisch 1968

Es gibt nur wenige Ereignisse, die für die Informatik als ähnlich prägend angesehen werden wie die akademische Anerkennung des Fachgebiets Software-Ingenieurwesens vor 50 Jahren. Für Historiker geschah dies in einem Hotel am Stadtrand von Garmisch im Oktober 1968. Hier wurde ein neues Fachgebiet regelrecht aus der Taufe gehoben. Zumindest erhielt es seine Weihe dadurch, dass eine Gruppe von Akademikern sich mit ihm befasste. Da an der berühmten Tagung nur etwa 60 Kollegen teilnahmen, ist die Wirkung des Ereignisses vor allem dem von Peter Naur und Brian Randell verfassten Bericht zu verdanken. Randell wurde sich der entstehenden Sagenbildung alsbald bewusst und dokumentierte seinerseits die Entstehungsgeschichte der beiden Berichte, nämlich den von Garmisch 1968 und den von Rom 1970. (Auch PDF-Kopien der beiden Berichte erhält man über diesen Link)

Kurze Vorgeschichte

Fast alle Systemprogramme und Anwendungen, mit denen ich seit 1956 zu tun hatte, kann ich nur als solide technische Produkte bezeichnen. Sie waren unter sehr starken Beschränkungen durch die Hardware entstanden, erfüllten jedoch fast immer einen ökonomischen Zweck. Im Laufe der Zeit entstanden immer bessere Hilfsmittel zu ihrer Erstellung, vor allem die so genannten höheren Programmiersprachen. Der Wunsch des Kunden, die Vielfalt der Geräte oder die Komplexität der Anwendung verlangten immer öfter, dass Programme entstanden, die nur mittels ausgefeilter Überlagerungstechnik eine akzeptable Lösung ergaben. Erst die Einführung der virtuellen Speichertechnik brachte eine Erleichterung.

Da der Bedarf an System- und Anwendungs-Software schneller wuchs als alle noch so großen Teams abdecken konnten, entstand das Schlagwort von der Software-Krise. Man lenkte damit die Aufmerksamkeit zu allererst auf ein Mengenproblem. Es könnten noch mehr Rechner eingesetzt werden, wenn es die dafür nötige Software gäbe. Dass es auch ein Qualitätsproblem gab, war nicht vordergründig und für jedermann offensichtlich. Es lag jedoch im Interesse, vor allem von akademischen Autoren, das Qualitätsproblem stärker ins Bewusstsein zu rufen als dies Praktiker taten. Eine Beratergruppe der NATO, zu der unter anderen Friedrich L. Bauer von der TU München gehörte, verstand es, Militärs für dieses Problem zu sensibilisieren. Durch unzuverlässige Software könnte die Schlagkraft des Bündnisses in Mitleidenschaft gezogen werden. Man war daher bereit ein Expertengremien damit zu beauftragen, einen Weg aus dem Software-Dilemma aufzuzeigen.

Teilnehmer und Tagungsstruktur

Die für fünf Tage angesetzte Tagung wurde von einem Triumvirat geleitet. Neben Bauer waren dies H.J. Helms von der TU in Lyngby, Dänemark, und Louis Bolliet von der Universität Grenoble in Frankreich. Drei Gruppenführer sollten die Diskussionen leiten. Sie waren nach Entwickler-Schwerpunkten aufgeteilt: Entwurf unter Alan Perlis, Carnegie-Mellon-Universität Pittsburgh, Produktion unter Peter Naur, Universität Kopenhagen und Service unter Klaus Samelson von der TU München. Nur der Begriff Produktion bedarf hier einer Erklärung. Heute würde man stattdessen Implementierung sagen, also die Überführung eines Entwurfs in ein lauffähiges Produkt. Service umfasst Verteilung, Installation und Wartung.

Die Teilnehmer verteilten sich fast mit gleichem Anteil auf Hochschulen und Industrie in Europa und Nordamerika. Viele damals in Europa ansässigen DV-Hersteller (wie IBM, ICL, CII, Philips, Siemens und Telefunken) und einige amerikanische Software-Häuser waren vertreten. Einige Beobachter des NATO-Stabes oder anderer Behörden ergänzten das Publikum.


Herkunft der Teilnehmer

Zu jedem der drei Schwerpunkte gab es schriftlich eingereichte Stellungnahmen und/oder Impulsvorträge, gefolgt von Plenumsdiskussionen. Alle Veranstaltungen fanden im selben Saal statt. Nur für die Mahlzeiten wechselte man die Räume.

Meine Teilnahme und IBMs Reaktion

Teilnehmen konnte man nur auf Einladung der Tagungsleitung. Meine Einladung verdankte ich Louis Bolliet, den ich aus unserer gemeinsamen Zeit aus New York kannte. Leider war es mir nicht möglich, mir eine ganze Woche freizunehmen. Für Mittwoch hatte sich der IBM-Direktor für Software-Planung angemeldet, der leider früh verstorbene Ted Climis. Ich fuhr also Dienstags Abend nach Hause und am Mittwoch wieder zurück. Als ich Climis sagte, wo ich den Rest der Woche verbrachte, gab es die folgende Belehrung; ‚Sie verschwenden Ihre Zeit. Bilden Sie sich ja nicht ein, dass Hochschulleute Ihnen etwas Brauchbares zum Thema Software-Entwicklung sagen können. Das ist ein industrieller Prozess so wie die Chip-Entwicklung. Da können Hochschulen uns auch nichts sagen.‘ Climis war ein Hüne. Sein Wort hatte Gewicht in der ganzen Firma. Ich fuhr dennoch zurück.

Verlauf und Ergebnisse

Wie eingangs erwähnt, ist diese Tagung ungewöhnlich gut dokumentiert. Ich will daher nicht wiederholen, was anderswo leicht zu erfahren ist. Es waren nicht die normalen Vorträge über akademische Projekte, die mich beeindruckten, noch die spontanen, teils sarkastischen Einwürfe einiger besonders lautstarker Typen.

Einen sehr positiven Eindruck hinterließ bei mir Doug McIlroy. Er war damals Leiter eines Entwicklungsprojekts bei den Bell Laboratories in New Jersey. Er plädierte für die systematische Wiederverwendung von Software durch Baustein-Bibliotheken. Sein Vortrag hieß ‚Mass Produced Software Components‘. McIlroy schlug vor, denselben Weg zu gehen, mit dem die Hardware-Kollegen Erfolg hatten. Zuerst sollte man die Standardfunktionen definieren, die benötigt würden, um daraus große Systeme zusammenzufügen. Dann sollte man von jedem Baustein endlich viele Varianten anfertigen, mal zeit-, mal platzoptimiert, so dass sie unterschiedliche Anforderungen abdecken. Genau diese Idee wandten wir anschließend in Böblingen an, um eine Bibliothek von Bausteinen zu entwickeln, mit denen wir einige Jahre lang großen Erfolg innerhalb der Firma hatten. In den 1990er Jahren gab es einige Alternativ-Vorschläge, die die komponenten-basierte Entwicklung an den Rand drängten. Gemeint sind Muster (engl. pattern) und Plattformen.

Großen Eindruck bei den anwesenden Zuhörern hinterließ der Kollege John Nash aus dem IBM Labor in Hursley, England. Er stellte de facto das Material zur Verfügung, das damals firmenweit zur Schulung von Mitarbeitern in der Software-Entwicklung verwandt wurde. Zum ersten Mal sahen viele der Teilnehmer, vor allem die Hochschulvertreter, welche Faustregeln, Grafiken und Modelle IBM-intern eingesetzt werden. Auch die Kollegen des Forschungslabors in Yorktown Heights, NY, (Andy Kinslow, Ascher Opler, Brian Randell) gewannen Aufmerksamkeit, da sie ausführlich über die Software-Untersuchungen und Modellierungen berichteten, die dort vorgenommen wurden.

Von den akademischen Teilnehmern beeindruckten mich vor allem Alan Perlis und Edsger Dijkstra. Sie trugen weniger Fakten und Daten bei, als wohlüberlegte, teils pointierte Bemerkungen zu den Problemen, die sie erlebt hatten. Einige Dinge, die behandelt wurden, hatten nur einen sehr temporären Charakter. So befasste man sich einen halben Tag lang mit der Frage, ob es sinnvoll sei, Software als kostenpflichtiges Produkt unabhängig von der sie ausführenden Hardware zu verkaufen. Anwesende Vertreter von Software-Häusern konnten sich nicht für die Schöngeister erwärmen, die dafür warben, Software als ‚geistiges Gut‘ anzusehen und nur zu verschenken. Wenige Monate später verkündigte die Firma IBM ihr ‚Unbundling‘. Sie berechnete fortan Software-Produkte separat, reduzierte aber die Hardware-Preise nur geringfügig.

Nachwirkungen und Bewertung

Die Garmischer Tagung hatte ein ganzes Bündel von Nachwirkungen. Sie wirkten auf den verschiedensten Ebenen. Besonders ins Auge fallen mehrere wissenschaftliche Tagungsreihen, die entsprangen. Am bekanntesten ist die International Conference on Software Engineering (abgekürzt ICSE) der IEEE, die seither im 2-jährigen Zyklus stattfindet. Daneben gibt es das European Symposium on Software Engineering (ESEC), ebenfalls alle zwei Jahre, sowie die jährliche Tagung über Software Engineering der Gesellschaft für Informatik (GI). Zusätzlich zu den in den Tagungsbänden veröffentlichten Beiträgen gibt es mehrere neugegründete Zeitschriften, die sich dem Thema Software Engineering widmen, so die IEEE Transactions on Software Engineering.

Die vielleicht größte Nachwirkung bestand darin, dass das Fachgebiet Computerwissenschaften (engl. computer science) entweder umdefiniert oder aufgeteilt wurde. Überspitzt gesagt, die einer Naturwissenschaft nachempfundene Computerwissenschaft wurde um eine Ingenieur-Auffassung ergänzt oder von dieser abgelöst. Es wurde an vielen Hochschulorten der Welt, vor allem aber in den USA, ein zweiter Studiengang eingerichtet. Da in Deutschland mit der Informatik ein anderes Verständnis vorherrscht als im angelsächsischen Raum – darauf einzugehen würde hier zu weit führen – bestand die Notwendigkeit einer Umorientierung nicht. Lediglich die Universität Stuttgart ging diesen Weg. Hier gibt es heute neben der Informatik den Studiengang Softwaretechnik. In ihm findet – anders als der Name suggeriert – keine Beschränkung auf Software statt, sondern nur eine stärkere Betonung der ‚konstruktiven Aspekte‘.

Nach meiner Meinung ist diese Aufteilung, die die Informatik erfuhr, zu bedauern. So wichtig es auch ist, die Bedeutung und die Eigenart von Software zu erklären und zu betonen, so kann dies auch erfolgen unter Beibehaltung des Namens Informatik. Anders ausgedrückt, es tut der Informatik als Ganzer gut, sich stärker mit Software zu befassen. Software ist das Neue, die Technik, die den Fortschrift bestimmt. Software ohne Hardware zu lehren oder zu betrachten, führt dazu, dass suboptimale Lösungen entstehen, oder aber dass der Boden der Realität verlassen wird.

Fachliche Weiterentwicklung des Feldes

In den letzten 50 Jahren hat sich das, was man unter Software Engineering versteht, signifikant weiterentwickelt. Ich kann längst nicht alle Facetten beleuchten. Ich gebe nur einige Schwerpunkte an. Das Ziel, Software mit systematischen Verfahren zu entwickeln und zu bewerten, fand überall großen Anklang. Unter anderem sah sich das amerikanische Militär veranlasst, seine Aktivitäten stärker zu bündeln. Da die Raumfahrt ohnehin in Fragen der Softwaretechnik einsame Spitze darstellte, zogen Heer, Marine und Luftwaffe nach und gründeten ein Software Engineering Institute (SEI) an der Carnegie-Mellon-Universität in Pittsburgh. Für die technische Leitung gewannen sie meinen früheren IBM-Kollegen Watts Humphrey (1927-2010). Er setzte die bei IBM begonnene Arbeit fort und initiierte ein Software-Prozess-Programm. Zwischen 1986 und 1996 zeichnete er unter anderem verantwortlich für die Entwicklung des Capability Maturity Model (kurz CMM) sowie den Personal Software Process und den Team Software Process.

Humphrey schrieb fast ein Dutzend Bücher, die seine Verfahren begründeten und illustrierten. Einige davon findet man heute in den Institutsbibliotheken führender deutscher Informatik-Institute. Ihre gesamte Auflage erreicht vermutlich nicht ganz die des Bestseller eines anderen Ex-IBMers, nämlich Fred Brooks‘ ‚Mythical Manmonth‘ (geschätzte 300.000). Humphreys Bücher enthalten äußerst wertvolle Ratschläge, sowohl für die technische Seite wie für die organisatorische Seite der Software-Entwicklung. Vieles was er schrieb, probierte er vorher an sich selbst aus. Ein weiterer IBM-Kollege, der sich für die gesamte Branche verdient machte, ist Capers Jones (*1933). Er sammelte Produktivitätsdaten von über 12.000 Projekten von 600 Firmen auf der ganzen Welt, bereitete die Daten auf und bot sie für Vergleichszwecke an. Auch er führte im Ruhestand Arbeiten fort, die er während seiner aktiven IBM-Zeit begonnen hatte.


Finanzielle Geschichte eines SW-Projekts

Zwei Kollegen, die von Praktikern wegen ihrer Beiträge hoch geschätzt werden, sind Barry Boehm (*1935) und Dave Parnas (*1941). Boehm erfand die Methode COCOMO zur Softwarekostenberechnung, das risiko- und kostensenkende Spiral-Vorgehensmodell und eine erweiterte Delphi-Methode (wideband delphi). Parnas verdanken wir das Geheimnisprinzip (Datenkapselung), das eine wesentliche Grundlage der heutigen objektorientierten Programmiersprachen ist. Er engagierte sich gegen das SDI-Programm der USA, ein Raketenabwehr-Projekt, dessen technische Grundlagen sehr unsicher waren.

Dass die Kosten der Software-Entwicklung sowie die Qualität des Produkts erhöhte Aufmerksamkeit erfuhren − auch in akademischen Kreisen − war damals  allgemein zu begrüßen (und ist es auch heute noch). Software-Projekte brauchen kein Abenteuer mehr zu werden. Sie sind planbar, vorhersehbar und kontrollierbar. Nicht ganz denselben Grad an Interesse erreichte bisher das Bemühen, den Wert von Software zu ermitteln. Der Wert ergibt sich aus den Geschäftsmodellen, die verfolgt werden. Davon gibt es viele. Den Wert mit dem Umsatz gleichzusetzen, den man durch Verkauf des Produkts erzielen kann, ist nur eines von vielen. (In einem Blog-Beitrag des Jahres 2016 wurde dieses Thema behandelt)

Ausblick und Fragen

Fast scheint es, als ob die Ziele und Ambitionen, die man mit dem Software Engineering verbindet, beim alten Eisen gelandet sind. Die moderne Zeit hat sie scheinbar überrollt. Das gilt zumindest in zweierlei Hinsicht. Die strenge und systematische Vorgehensweise wird vielfach als Ballast empfunden, den man gern abwirft. Anstatt umfassender Planung bevorzugt man heute wieder das iterative Vorgehen. Man sticht quasi an einer Stelle durch, liefert einen Prototypen aus und verbessert diesen. An die Stelle von ‚clean development‘ tritt ‚lean development‘ oder ‚smart development‘. Die Entwicklungsdauer (engl. time to market) hat in der Regel Vorrang vor Qualität, Kosten, Benutzbarkeit, usw.

Ein anderes Phänomen stellt das Geschäftsmodell und die Marktmacht von Firmen wie Google dar. Ihr Suchdienst wirft derart hohe Gewinne ab, dass sie den eigentlichen Software-Markt total unterlaufen können. Sie ruinieren alle Preise, die man für Software als Produkt erzielen kann, indem sie damit drohen, jedes beliebige Software-Produkt der Welt kostenlos anzubieten. Das ist kein Grund, den Untergang der Software-Industrie vorherzusagen. Jeder muss schließlich das Geschäftsmodell finden und verfolgen, dass ihn trägt.

PS: Sehr lesenswert sind die vor kurzem erschienenen Berichte von zwei Nicht-Teilnehmern der Garmischer Tagung, von Barry Boehm und Manfred Broy.

Montag, 15. Oktober 2018

Wahl in Bayern – ein paar Gedanken danach

Die gestrige Landtagswahl in Bayern hat nach meinem Dafürhalten ein paar Antworten gebracht auch zu Fragen, die überregional von Bedeutung sind. Ich will sie kurz beleuchten. Ich halte das Wahlergebnis nicht für einen epochalen Bruch, sondern für die Fortsetzung eines seit mindestens 5-6 Jahren erkennbaren Trends. Einige meiner Aussagen adressieren Behauptungen oder Vermutungen, die sich in zeitgenössischen Medien festzusetzen scheinen.

Starke Wählerwanderung

Der Vergleich dreier Wahlen in Bayern macht die Wählerwanderungen deutlich, die seit Jahren in diesem Bundesland stattfanden.


Vergleich dreier Wahlen in Bayern

Der große Verlierer, schon bei der letzten Bundestagwahl, war die CSU mit nahezu 9%. Sie verlor jetzt noch einmal, aber nur 1,6%. Anders war es bei der SPD. Sie verlor in beiden Wahlen je 5%. Der große Gewinner dieser Wahl sind die Grünen. Sie konnten sich fast verdoppeln und kamen auf 17,5%. Damit zieht Bayern dem Trend hinterher, der vor 5-6 Jahren in Baden-Württemberg begann. Die AfD konnte keine Gewinne erzielen gegenüber der Bundestagswahl. Sehr hart traf es die FDP. Sie verlor die Hälfte der Wähler, die sie vor einem Jahr hatte. Gewinnen konnten neben den Grünen nur die Freien Wähler (FW). Wählerwanderungen sind ein Zeichen dafür, dass Menschen sich nicht abgehängt fühlen und man der Politik etwas zutraut.

Hohe Wahlbeteiligung

Die Wahlbeteiligung an Landes-, Bundes- und Europawahlen wird oft als Maßstab für das demokratische Bewusstsein und das politische Interesse der Bevölkerung angesehen. Sie erreichte bei der jetzigen Wahl imposante 72,2 %, gegenüber 63,6% vor vier Jahren. Diese Steigerung ist vor allem der AfD zu verdanken. Ihr Potential war primär bei bisherigen Nicht-Wählern. Im Vergleich zu englischen und amerikanischen Wahlen sind diese Zahlen beeindruckend. Das allseitige Jammern, dass bei uns Politik und Gesellschaft sich verfremden, ist damit widerlegt.

Rechtsruck fand nicht statt

Die AfD scheint ihren Vormarsch in Landesparlamente fortzusetzen, aber mit geringeren Zahlen als sie bei der letzten Bundestagswahl erreichte. Vielleicht ist dies darauf zurückzuführen, dass die gigantische Bundestagsfraktion der AfD den Wählern zeigt, dass außer Lärm nicht viel von dieser Partei zu erwarten ist. Neben Nicht-Wählern sog sie auch von ‚Altparteien‘ ab, aber nur in geringerem Maße.

Rechnet man die Grünen zum Lager der Linksparteien, so ist der Linksdrall deutlicher als der Rechtsruck. Von den 18 zur Wahl stehenden Parteien gehört die Mehrzahl ins linke Lager, wobei dieser Begriff an Bedeutung und Prägnanz verloren hat. CSU, FW und FDP lassen sich als zur klassischen Mitte gehörend verorten.


Angebotsspektrum weitet sich aus

Neben den oben gelisteten sechs Parteien bewarben sich 12 weitere Parteien für den bayrischen Landtag. Aus Respekt für ihre Arbeit und ihren Einsatz möchte ich wenigstens ihre Namen erwähnen: Die Linke, Bayernpartei, Ökologisch-Demokratische Partei (ÖDP), Piraten, Die Partei, Mut, Tierschutz, V-Partei, Die Franken, Gesundheitsforscher, Humanisten und Liberal-Konservative Reformer (LKR). Sieben von ihnen kandidierten das erste Mal. Sie  erhielten zusammen 5 % der Stimmen. Bei der Wahl 2013 kandidierten fünf andere Parteien, die jetzt nicht mehr dabei waren: REP, NPD, Frauenliste, Freiheit und Bürgerrechtsbewegung Solidarität (BüSo). Die Tatsache, dass Parteien kommen und gehen, zeugt für die Bedeutung, die man ihnen beimisst.

Städte wählen anders als das breite Land

In den Städten wie München, Augsburg, Nürnberg, Erlangen usw.  zeigt sich der Wählerwandel am deutlichsten. In Bayern waren traditionsgemäß sämtliche Direktmandate in der Hand der CSU. Zum ersten Mal gewann eine andere Partei eines oder gar mehrere Direktmandate. Es waren die Grünen, die fünf der sechs Münchner Direktmandate gewannen. Dass die beiden Ko-Vorsitzenden, Katharina Schulze und Ludwig Hartmann, dazu gehören, macht die Sache besonders interessant. Es erinnert an Berlin-Kreuzberg, wo Hans-Christian Ströbele mehrmals ein Direktmandat für die Grünen gewann. Es war dies bisher das einzige von Grünen gewonnene Direktmandat.

Hierzu eine Bemerkung: Das in angelsächsischen Ländern bevorzugte Mehrheitswahlrecht kennt nur Direktmandate. Das war in Deutschland bis zum ersten Weltkrieg ebenfalls der Fall. Erst die Weimarer Verfassung führte Verhältniswahlen ein, wodurch die Sitzverteilung mehr an die Gesamtstimmenzahl angepasst wurde. Mit anderen Worten: Eine Partei, die 49,9% der Stimmen hat, aber über kein Direktmandat verfügt, ist sonst nicht im Parlament vertreten. Im Bund, wo beide Wahlformen kombiniert werden, führt dies zu dem Problem der Ausgleichs- und Überhangmandate.

Landesthemen überwiegen

Bei einer Landtagswahl stehen Landesprobleme zur Diskussion. Das klingt wie eine  Weisheit, die zwar unbestritten ist, an die sich jedoch niemand hält. Im Falle Bayern ist diese Problematik ganz offensichtlich und von besonderer Brisanz. Der seit Jahrhunderten schwelende Kampf gegen gesamtdeutsche Belange treibt auch heute noch die seltsamsten Blüten.

Auf Wunsch der CSU hielten sich Angela Merkel und andere CDU-Politiker aus dem bayrischen Wahlkampf heraus. ‚Im Wahlkampf sei ihm ein Bundeskanzler lieber als eine Bundeskanzlerin‘, so wird Markus Söder zitiert. Er ließ sich daher mit dem Österreicher Sebastian Kurz ablichten, aber nicht mit Angela Merkel. Ob dies eine gute Strategie war, darf bezweifelt werden. Auch dass Horst Seehofer Berlin als die Quelle aller seiner Probleme ansah, wird sich noch rächen.

PS: Dies ist Beitrag Nummer 555 seit Januar 2011. Eine solche Ausdauer und Produktivität hatte ich mir selbst nicht zugetraut.