Montag, 22. August 2016

Über Geschäftsmodelle der Software-Industrie oder über den Wert von Software

Es sind inzwischen 10 Jahre her, seit ich mich zuletzt mit dem Thema Software als Industrie [1] befasste. Zehn Jahre sind in unserer Branche eine lange Zeit, in der sich nicht nur technisch Einiges geändert hat. Vor allem haben wir die 2008 durch die Banken ausgelöste große Wirtschaftskrise hinter uns. Das Jahr 2006 wurde von der Bundesregierung als Informatik-Jahr besonders hervorgehoben. Das motivierte die Kollegen Manfred Broy, Matthias Jarke, Manfred Nagl und Dieter Rombach dazu, in der Form eines Manifestes auf die Bedeutung von Software [2] hinzuweisen. Beide Veröffentlichungen sollen quasi als Bezugsbasis gelten.

Software überall

Man kann kaum noch sagen, wo uns Software nicht begegnet [3]. Die Schätzung in meinem Artikel von 2006 [1] über die Anzahl von Software-Firmen dürfte um eine Größenordnung zu niedrig sein. Allein in Deutschland gibt es vermutlich rund 50.000 Software-Unternehmen. Etwa 85% von ihnen bestehen aus einem Mitarbeiter, weitere 10% haben weniger als 10 Mitarbeiter. Sowohl die Zusammensetzung der Branche als auch die jeweilige Spitzenformation ist sehr unstabil. Pro Jahr melden etwa 500 Software-Firmen Konkurs an. Die Zahl der Neugründungen liegt in derselben Größenordnung, vielleicht sogar höher. Der Vergleich, der in der nachfolgenden Tabelle versucht wurde, leidet darunter, dass unterschiedliche Kriterien für die Auswahl zur Anwendung kamen.


Führende deutsche Software-Häuser (nach Lünendonk)

Offensichtlich dominieren in der Liste von 2003 die Firmen, die sich auf Software-Projekte konzentrieren. Im Jahre 2013 überwiegen die Firmen, die Software-Produkte anbieten. Firmen, die vorwiegend Online-Dienste anbieten (wie Google und Facebook) fehlen in beiden Jahren. Auch die Firma Apple ist ausgeschlossen, da sie ihre Software vorwiegend mit Hardware gebündelt vertreibt. Es macht daher keinen Sinn, aus den Zahlen einen Trend ablesen zu wollen. Auch die aktuellen Zahlen stellen nur einen kleinen Bruchteil der Software dar, die heute im Markt angeboten wird.

Software-Cluster am Beispiel Jena

Dass Deutschland im Software-Geschäft alles andere als eine zweite Geige spielt, ist weltbekannt. Niemand anderes als Jim Cook, der CEO von Apple, sagte dieser Tage in einem Interview in der Washingten Post, dass er sich gerade bemüht, besseren Kontakt zu SAP zu etablieren. Wörtlich sagte er: ‘They own three-quarters of the world’s transactions, in terms of it running on their products’. Nur so viel zur Erklärung: Transaktionen sind ein Pseudonym für ernsthafte Datenverarbeitung, bei der es um wertvolle Daten geht.

Durch meinen Kollegen Klaus Küspert wurde ich vor einiger Zeit auf eine Veröffentlichung (von Guido Buenstorf·und Dirk Fornahl) hingewiesen, in der die Geschichte von Intershop aufgearbeitet wurde. Wer es bereits vergessenen hat: Stephan Schambach und Intershop waren nur eine von Deutschlands Raketen im Internet-Boom. Intershop erreichte den Gipfel seines Aktienkurses und seiner Mitarbeiterzahl im März/April 2000. Ihr Börsenkurs stürzte von über 1400 auf unter 200 Euro. Die Firma existiert weiter in Jena. Schambach ist weiter daran beteiligt, hat aber auch schon zwei Nachfolgefirmen gegründet. In der Untersuchung werden 40 Firmen gelistet, die von ehemaligen Mitarbeitern von Intershop gegründet wurden. Die Tabelle drückt den Stand von 2008 aus.



Spin-offs der Firma Intershop aus Jena

Eine solche Cluster-Bildung ist nicht untypisch für die Software-Industrie. Sie gibt es in Ballungsräumen wie München, Stuttgart, Karlsruhe, Darmstadt, Frankfurt, Aachen, Dortmund, Hamburg und Berlin. Sie löst im Falle Deutschlands nicht das Problem, dass es deutschen Software-Firmen - mit der Ausnahme von SAP - sowohl an Finanzkraft wie an internationalem Ansehen fehlt.

Erfolgten im Falle von Jena einige der Spin-offs unfreiwillig, ist die Trennung einzelner Gruppen von großen Firmen oder die Kooperation zwischen mehreren kleinen Firmen meist freiwillig. Es drückt sich oft eine Form von Spezialisierung aus, indem wertvolle Spezial-Skills mehreren Unternehmen im Umkreis angeboten werden.

Viele Diskussionen befassen sich mit der Frage, welche Rolle Start-ups spielen, also Neugründungen von Firmen. Hier machte die Stadt Berlin in letzter Zeit viel von sich reden. Viele Branchenkenner aus Süddeutschland können darüber nur schmunzeln. Angeblich sucht Wagniskapital in den letzten Jahren vor allem nach Anbietern von neuer Finanz-Software (auch Fintech genannt). Was dabei für Berlin sprechen sollte, ist mir ein Rätsel. Eine Sonderkonjunktur scheint es aber bei Computerspielen aus Berlin zu geben. Laut Angaben des Wall Street Journals gingen allerdings in Berlin von 2014 auf 2015 das eingesammelte Wagniskapital von 1,5 Milliarden Euro auf 520 Millionen zurück.

Software als Gut mit Wert

Wird in der Wirtschaft von Werten gesprochen, landet man alsbald bei Geschäftsmodellen. Als Basis für die folgenden Erläuterungen soll eine Definition aus dem Gabler Wirtschaftslexikon dienen:

Das Geschäftsmodell bestimmt, (1) was eine Organisation anbietet, das von Wert für Kunden ist, (2) wie Werte in einem Organisationssystem geschaffen werden, (3) wie die geschaffenen Werte dem Kunden kommuniziert und übertragen werden, (4) wie die geschaffenen Werte in Form von Erträgen durch das Unternehmen „eingefangen“ werden, (5) wie die Werte in der Organisation und an Anspruchsgruppen verteilt werden und (6) wie die Grundlogik der Schaffung von Wert weiterentwickelt wird, um die Nachhaltigkeit des Geschäftsmodells in der Zukunft sicherzustellen.

Hier ist meine Liste mir bekannter Geschäftsmodelle für die Software-Branche. Mit der Nummer 9 höre ich auf.
  1. Überlassung von Produkt-Lizenzen (mit/ohne Service) für Installation beim Nutzer. Microsoft und SAP haben dieses Modell perfektioniert und wurden groß damit.
  2. Ditto für Online-Nutzung (engl. Access only). SalesForce ist ein bekanntes Beispiel.
  3. Planungs-, Entwicklungs-, Installations- und Wartungs-Projekte nach Vorgabe durch andere Unternehmen. Nach diesem Modell operieren die meisten der 50.000 Firmen im deutschen Markt.
  4. Ausbildung und Beratung von Nutzern. Das schaffen nur Firmen mit anerkannter Kompetenz.
  5. Verbesserung der Absatzchancen für andere Produkte (z.B. Rechner-Hardware). So begann es bei Firmen wie IBM, Bull und Siemens. Nur Apple blieb diesem Prinzip treu und bündelt Hardware mit Software. Es wurde auf diese Weise die erfolgreichste Firma der Branche. Es wurden Spitzenumsätze und –gewinne erreicht. Man lieferte soeben das milliardste Gerät eines Typs (des iPhone) aus. Viele andere Branchen verbessern die Attraktivität ihrer Produkte durch ‚eingebettete‘ Software. Positive Beispiele sind die Werkzeugmaschinen- und die Flugzeugindustrie. Zum Mißkredit von Software sorgte in letzter Zeit die Automobilindustrie, insbesondere VW und Bosch.
  6. Erschließung neuer Vertriebs-, Verteilungs- und Wartungsmöglichkeiten. Die Firma Amazon begann mit dem Buchversand und ließ danach eine Einzelhandelsbranche nach der anderen alt aussehen.
  7. Verbesserung des Informationsflusses zwischen Kaufinteressenten und Warenanbietern, also zielsichere Werbung. Google hat erkannt, dass dank der Internet-Technik hier ein riesiges Potential erschließbar ist und hat sich darauf spezialisiert und weltweit konsequent durchgesetzt. Google verdiente dabei derart viel Geld, dass es jeden andern Software-Hersteller durch kostenlose Angebote aus dem Markt vertreiben kann, sofern es nur wollte.
  8. Ermöglichung von Folgegeschäften. Da Google Microsoft aus seinem ursprünglichen Geschäft (Nummer 1 dieser Liste) zu vertreiben scheint, sucht Microsoft Zugang zu neuem Umsätzen durch Verschenken von Betriebssystem-Software. Das Betriebssystem seinerseits informiert Microsoft, was auf dem Rechner läuft und bei welchen Anwendungen noch Geld zu verdienen ist.
  9. Verkauf von Firmenanteilen. Das ist der Weg, wie viele Wagniskapitalgeber Gewinn machen. Es hat auch die Firmengründer von Microsoft und SAP zu Milliardären gemacht. Meist wird der Schritt schon nach wenigen Jahren unternommen. Dann kommt es darauf an, ob die Personengruppe der Gründer Talent bewiesen hat, ob ihre technischen Ideen wirtschaftliches Potenzial haben und ob geschützte intellektuelle Rechte existieren. Das Beispiel der Göppinger Firma TeamViewer beweist, dass in Deutschland auch dieses Modell zum Tragen kommen kann (Die Firma wurde 2014 von dem Investor Permira für 870 Mio. Euro aufgekauft).
Ich möchte zunächst unterscheiden zwischen dem intellektuellen und dem wirtschaftlichen Wert, den ein (lauffähiges) Software-Produkt darstellt. Beide sind wichtig und sollten jeden Informatiker interessieren. Der intellektuelle Wert eines Software-Produkts wird bestimmt durch den Grad seiner Originalität. Die Frage, die man stellen muss, lautet: Enthält das Produkt Ideen, die den Stand der Technik weiterbringen? Der wirtschaftliche Wert ergibt sich aus der Beantwortung der Frage: Was sind potentielle Nutzer willens dafür auszugeben, dass es ihnen ermöglicht wird, die durch das Produkt geschaffenen Vorteile auszunutzen. Beide Werte liegen auf unterschiedlichen Ebenen. Sie stellen verschiedenen Dimensionen dar. Es gibt noch weitere Wertdimensionen, die in Frage kämen, die hier aber nicht in Betracht gezogen werden sollen. Als Beispiele seien der gesundheitliche, der erzieherische oder der unterhaltende Wert genannt.

Werden nur Qualität (im Sinne von Fehlerfreiheit oder Zuverlässigkeit) oder Produktivität (bei der Erstellung) diskutiert, kann man leicht perverse Ergebnisse erzielen. Qualität ist am einfachsten zu erreichen, wenn es keine fremden Nutzer gibt. Die Produktivität ist leicht zu steigern, indem man dasselbe macht, was man schon 100 Mal gemacht hat. Kunden sind leichter zufrieden zu stellen, wenn sie ein Produkt geschenkt bekommen als wenn sie dafür bezahlen müssen.

Im Gegensatz zu Lyrik und schriftstellerischer Prosa kann Software seinen Wert innerhalb von Monaten oder Jahren total einbüßen. Ein Software-Produkt muss zwei Formen von Lebendigkeit besitzen. Es muss sich an die anvisierte oder vorgefundene Nutzerumgebung anpassen. Vor allem muss es angemessen reagieren in Bezug auf Ausdrucksform, Antwortzeit, Sprache und intellektuelles Niveau. Nutzer passen sich, im Falle eines für sie wertvollen Produkts in gewissem Rahmen freiwillig an. Das Produkt muss sich auch verändern können, sobald sich die Umgebung ändert, etwa durch neue Gesetze.

Selbstverständnis der Softwaretechnik

Einige Ideen bezüglich Software-Entwicklung, die sich bei mir herauskristallisierten, habe ich in einen Blog-Eintrag im Februar diesen Jahres zusammengefasst. Ich nannte es meine 10 Grundthesen. Eine davon geht auf die NATO-Tagung von 1969 in Rom zurück, über andere habe ich in den 1990er Jahren veröffentlicht und vorgetragen. Auch bei meinem eingeladenen Vortrag in Leipzig anlässlich der ICSE 2008 stand eine solche Idee im Mittelpunkt. Dort sagte ich unter anderem:

Cost and productivity are key issues only where the value of a product is ignored.

Das im Oktober 2005 anlässlich eines Dagstuhl Workshops entstandene Manifest [2] ist außer von den vier Autoren noch von weiteren 30 Kollegen unterschrieben. Das sind fast alle anwesenden Inhaber von deutschen Universitätslehrstühlen in Softwaretechnik bzw. Software Engineering. Wenn man berücksichtigt, dass Software Engineering erst seit der 1968er Konferenz in Garmisch die Würde eines eigenen Studienfachs besitzt, ist diese Zahl beachtlich. Die Klage der Unterzeichner, dass eine Stärkung der akademischen Präsenz dringend erforderlich sei, ist durchaus verständlich. Wichtiger ist es für mich, über eine Neuausrichtung nachzudenken. Als ich dieser Tage das Manifest wieder einmal las, kamen mir einige Aussagen doch etwas seltsam vor. Allein durch ihre Hervorhebung erreichen sie eine stärkere Wirkung. Ich lasse sie für sich selbst sprechen. Sie sind größtenteils wörtlich zitiert. 
  • Es wird für die deutsche Software eine Qualität und Produktivität über dem Weltniveau gefordert. Das sei man dem deutschen Maschinenbau schuldig. Beides, also sowohl Qualität wie Produktivität ließe sich messen.
  • Software sei anders als Maschinenbau. Dort zählten Produkte und funktionierende Systeme, in der Informatik dagegen seien es ‚verallgemeinerbare Methoden‘.
  • Oft werden die Grundlagen der Informatik (oder der Softwaretechnik) mit Theorie gleichgesetzt oder als Theorie interpretiert.
  • Die Lehre muss für die Forschung vorbereiten. Der Umgang mit ‚ausgereiften Werkzeugen‘ ist essentiell. Außerdem muss die Hochschule  ‚soft skills‘ vermitteln.
  • Der Sekundärbereich (also die Anwendungen) erfordere 80% unserer Software-Kompetenz. Sich um den Primärbereich (also die Informatik-Industrie selbst) zu kümmern, lohne sich daher nicht.
  • Die Hochschulen sollten für die Weiterqualifizierung von Industrie-Mitarbeitern sorgen. Hier bestimmen Quereinsteiger noch immer das Bild des Berufes.
  • In Deutschland besteht ein Bedarf von 385.000 Software-Entwicklern. Zur Zeit können hochqualifizierte Arbeitsplätze nur mit Ausländern besetzt werden.
  • Unser internationaler Ruf wird durch die Organisation von Fachtagungen und die Herausgabe von Fachzeitschriften begründet.
  • Der Technologietransfer zwischen öffentlicher Forschung und Industrie scheiterte bisher, da zu wenig belegbare Ergebnisse vorlägen. Ein Personalaustausch zwischen Hochschule und Industrie sei erstrebenswert.
  • Viele Unternehmen betrachten Software noch als reinen Kostenfaktor. Ihnen fehle meist das Verständnis für das Management von Software-Projekten.
  • Die Stuttgarter Erfahrungen mit einem speziellen Studiengang in Softwaretechnik seien gut und nachahmenswert.
Wenn ich solche Aussagen akademischer Kollegen höre oder lese, fallen mir viele Einzelpunkte auf, die ich hinterfragen möchte. Der Hauptgrund aber, warum ich dieses Manifest überhaupt zitiere, ist die Tatsache, dass darin der Begriff Wert überhaupt keine Rolle spielt. Das hier Gesagte gilt für Hobby- und Spiel-Software wie für ernsthafte Software gleichermaßen. Ich frage mich manchmal, ob diese Kollegen überhaupt in der Lage sind, den Wert von Software richtig einzuschätzen. Sofern sie eine klassische Laufbahn durchliefen, hatten sie vielleicht Erfahrung mit mathematischen Algorithmen oder Beispiel-Programmen, die bestenfalls 50 Zeilen oder eine Schreibmaschinenseite umfassten. Von Programmen im Bereich von Mega- oder Gigabytes wissen sie vermutlich nur vom Hörensagen. Die Software, wie sie etwa von Google täglich genutzt und verwaltet wird, umfasst etwa 50-100 Gigabytes. Ich überlasse es dem Leser abzuschätzen, wie vielen Buch- oder Bildschirmseiten dies entspricht.

Eine Reflexion persönlicher Art

Ein Kollege, der mich gut kannte, meinte einmal: ‚Sie haben oft gute Ideen, nur dauert es meist etwas lange, bis Sie draufkommen‘. Ich empfand dies im Prinzip als Kompliment. Ich bin mir der im Nachsatz formulierten Einschränkung durchaus bewusst. Selbst 20 Jahre nach Ende meiner Berufskarriere kommen mir manchmal Ideen, von denen ich sage, ach, wären die mir doch früher gekommen. Um dieser Situation Rechnung zu tragen, begann ich damit diesen Blog zu führen.

Weitere Referenzen
  1. Endres, A.: Geschäftsmodelle und Beschäftigungspotenziale der Software-Industrie. Informatik Forsch. Entw. 21,1/2 (2006), 99-103
  2. Broy, M., Jarke, M:, Nagl, M., Rombach, D.: Manifest: Strategische Bedeutung des Software Engineering für Deutschland. Informatik Spektrum 29.3 (2006), 210-221
  3. Broy,M., Endres,A.: Informatik überall, jederzeit und für alle. Informatik-Spektrum 32,2 (2009), 153-162

Dienstag, 16. August 2016

Mathematik-Schmankerl für die Enkel

Mein Freund Peter Hiemann in Grasse, den Sie als Beitragenden dieses Blogs bestimmt kennen, ist ein gelernter Mathematiker. Dieser Tage sah er sich veranlasst, bei seinem 14-jährigen Enkel etwas für Mathematik zu werben. Er möchte  ̶  wie er sagt  ̶  dem Enkel Lust an Mathematik verschaffen. Offensichtlich ist bei dem Enkel der Mathematikunterricht in der Schule nicht motivierend genug.

Es gibt sicher eine Vielzahl von Wegen, wie man dies tun kann. Peter Hiemann versucht es mit Fakten, also mit mathematischen Konstanten. Gleich danach kommt er auf Konstanten der Natur, also von der reinen Mathematik zur Physik und zur Biologie. Das ist für jemanden, der Hiemann kennt, keine Überraschung. Ob es bei dem Enkel als Appetitanreger ausreichte, weiß ich nicht. Hiemann schrieb: 

‚Mich würde interessieren, ob andere Opas ähnliche Situationen mit ihren Enkeln erleben und wie sie reagieren. Es mag sich nicht [nur] um Mathe handeln.‘ 

Dem schließe ich mich an. Da auch der Administrator dieses Blogs bei seinen Beiträgen sehr oft an seine Enkel denkt, bin ich Peter Hiemann dankbar, dass er sein Material zur Verfügung stellt. Gerne führe ich eine Diskussion in diesem Blog darüber, wie man Mathematik lehren sollte, dass sie bei Jugendlichen auch ankommt.

Sie können Hiemanns Text lesen, indem Sie hier klicken.

Samstag, 6. August 2016

Abstraktion, (k)ein Unwort für praktische Informatiker?

Manchmal darf man Dinge öfters sagen, manchmal muss man sogar. ‚Ceterum censeo…‘ sagte einstmals Cato, jedesmal wenn er im Senat redete. Seine Taktik war schließlich erfolgreich. Mit dem Thema Abstraktion, kurz Thema A genannt, befasse ich mich seit rund vierzig Jahren. Schon mehr als einem Kollegen ging ich damit auf die Nerven. Auch in diesem Blog kam es bereits drei Mal vor. Beim ersten Mal nahm ich die Doppeldeutigkeit des Begriffs Abstraktion ins Visier. Ich unterschied zwischen (Mengen-) Vereinigung und Transzendentierung. Danach versuchte ich für alternative Konzepte zu werben, etwa für die Aggregation.

Jetzt werde ich nur eine Diskussion der letzten Tage wiedergeben. Wie immer in diesem Blog, heiße ich auch hier Bertal Dresen (BD). Mein Sparringspartner war wieder mein Kollege Hartmut Wedekind (HW) aus Darmstadt. Er hat einen großen Vorteil für mich: Mit ihm kann man eine ganze Weile streiten. Er gibt nicht so leicht nach. Wer mit mir länger auskommen will, benötigt drei Eigenschaften, Resilienz, Geduld und Vergesslichkeit.

Wedekind hatte Anfang August in seinem Blog einen Beitrag veröffentlicht mit der Überschrift  „Das Invariante bleibt: Eine Studie zum Begriff der Nachhaltigkeit“. Darin versuchte er unter anderem Juristen klarzumachen, dass sie unterscheiden sollten zwischen konkreten Verträgen und der Idee eines Vertrages. Die Idee sei eine Abstraktion so wie es Zahlen gegenüber Ziffern seien. Ich konnte mich nicht zurückhalten und schrieb einen Kommentar mit folgendem Wortlaut.

BD: Es ist jammerschade, dass der Informatiker Wedekind uns immer klarmachen will, dass er mit Zahlen rechnen kann. Erst seit es (elektronische) Ziffernrechner gibt, gibt es die Informatik. Schon vor 50 Jahren konnte ich keine Differentialgleichungen lösen, ohne mir genau zu überlegen, was meine Gleitkommadarstellung mit ihnen machte.

HW: Aber das will ich doch gar nicht. Ich will doch bloß das Invarianzprinzip (auch als Nachhaltigkeit mit dem Thema "was bleibt") an ganzen Zahlen als Beispiel klar machen, weil ganze Zahlen alle kennen. Die ganze Abstraktionshierarchie bis hin zu den komplexen Zahlen erspare ich mir. Die intensionale Abstraktion zu den Begriffen hin bringe ich, weil sie auch den Juristen unbekannt ist. Sie [ob die Juristen oder ich gemeint waren, kommt auf dasselbe heraus] verstehen das nicht oder wollen es nicht verstehen. Das weiß ich doch.

Schauen Sie sich aber das fast unerträgliche "Abstraktionselend" (siehe z.B. bei Wikipedia) in der Welt doch mal genau an (nicht nur bei Juristen), und auch das Blabla drum herum inkl. "Information hiding" bei den Informatikern. Das ist unverstandener Quatsch zum Quadrat und bloße Metaphorik. Schauen Sie sich [auch] den Quatsch vom berühmten Kronecker an. "Die ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk." Das Schlimme, die glaubten das früher wirklich. Der Blödsinn ist kein Spaß, obwohl es so aussieht. Das ist Schwachsinn und eines Wissenschaftlers unwürdig.

BD: Sie tun ja auch Dinge, die Sie nicht tun wollen. Sie wollen Informatiker sein und werben für Mathematik. 'Math considered harmful' kann ich nur sagen. Besonders wenn Informatiker sie betreiben, die eigentlich eine ganz andere Aufgabe haben.

HW: Ich mache die Mathematik in ihrer "ontologischen" Infantilität zur Sau. Ich werbe doch nicht für sie. Kronecker ist kein Winzling, sondern steht in deren "hall of fame", ganz oben. Den Mathematikern heute ist der Auspruch Kroneckers ja auch peinlich, so wie gute Juristen auch das Abtrenntheater eines Savingy nicht mehr ertragen können, weil es auch so geht, wie das anderen Nationen machen. In Europa kann man das nicht einbringen. Nicht exportierbar! Nur die Japaner, die haben es übernommen. Überall haben sie die Lacher, bloß die Belachten merken das nicht, weil sie dogmatisch und unkritisch sind. Das sind wissenschaftliche (auch politische) Todsünden. Und was ist mit ISO/OSI mit seinen 7 Schichten der Abstraktion?

BD: Das sind Hilfen fürs Denken. Es gibt auch schöne Bilder in Büchern. Es gibt aber keine OSI-Maschine, die sie direkt bearbeitet. OSI kommt auf Maschinen nur indirekt vor, von Menschen mühsam von Hand übersetzt und angepasst. Dabei entstehen dann viele Fehler. Aber dafür tragen dann andere Leute die Verantwortung. Nicht die, die abstrakte Bildchen malten. Was wäre an einer Machine, die direkt die ISO-Protokollschichten interpretiert, abstrakt?

HW: Man kann bei ISO/OSI die Invarianzen vom Schicht zu Schicht einzeln vorführen, wenn man will. Merkmal für Abstraktion: Was bleibt, wenn der Strom ausfällt und kein Notstrom-Batterie-System vorliegt? Bei Datenbanken sagt man, nur das, was auf Platte konkret protokolliert wurde. Das sind die After-Images einer Seite nach jeder Veränderungstransaktion. Mit den konkreten Bits der Images wird dann ein Recovery der Abstraktionsschichten darüber veranstaltet. Auch bei HANA muss recovered werden können.

BD: Ob TCP/IP eine Abstraktion im Sinne Ihrer ganzen Zahlen ist, wage ich zu bezweifeln. Haben Sie kein besseres Wort für 'konkret vorhandene Interpretationsebenen'?

HW: Sicherlich. Man brauchte das DoD mit seinem TCP/IP auf der wichtigen Schicht  4. Ohne DoD kein Internet. Der Aristoteles in seiner Ontologie hat ähnlich in Schichten gedacht. Das ist aber keine Abstraktionshierarchie, für uns nur eine Analogie (Ähnlichkeit). Es ist eine Ontologie-Hierarchie.

BD: Noch einmal: Sobald Sie von Abstraktion reden, besteigen Sie eine Art Rakete, die Sie von der Erdoberfläche entführt. Sie begeben sich in Sphären, wo der (arme, aber praktische) Informatiker nichts tun kann. Sie treffen dort vielleicht auf Mathematiker und Philosophen. Aber das interessiert mich wieder nicht. Es gäbe unten eigentlich genug zu tun. Auch für Leute wie Sie.

HW: Vielleicht hilft Ihnen der E.W. Dijkstra mit seinem Betriebssystem THE weiter. Es war damals das erste Mal (1965), dass systematisch eine Abstraktionshierarchie als Konzept benutzt wurde. [Stimmt nicht ganz. Ich benutzte 1956 den Bell-Interpreter, der als Schicht zwischen Hardware und Anwendung lag.] Dijkstra war ein exzellenter Mann. Ganz neidisch war Dave Parnas mit seiner Metaphorik "information hiding" (statt Abstraktion). Das Data Independent Accessing Model (DIAM) für Datenbanken kam erst später, 1972, IBM San Jose.

BD: Im zitierten Text kommt zwar einmal das Wort Abstraktion vor. Mich würde es sehr wundern, wenn Dijkstra Schichten einer Implementierung als Abstraktionen bezeichnet hätte. Oder die Schichten einer Sahnetorte.

Abstraktion ist für mich als Ingenieur und Informatiker  ̶  unabhängig davon, was Philosophen und Linguisten meinen  ̶  eine auf realen Rechnern undefinierte Operation. Sie ist vergleichbar mit der Division durch Null.

Dass man für die gedankliche Kopfarbeit, d.h. ohne an Rechner zu denken, mehr Freiheitsgrade hat, das bestreitet niemand. Nicht formales Denken ist sogar meist einfacher und schneller, nur ist es nicht maschinell verwertbar, bzw. nachvollziehbar. Ich selbst habe oft Pseudocodes verwendet, d.h. Notationen, die aussahen wie Programmiersprachen, die aber nie ausführbar waren. Das Abstrahieren führt jedenfalls nicht näher zu einer maschinellen Lösung eines Problems, sondern weg von ihr. Es führt in die falsche Richtung.

Ich kann mir übrigens auch abstrakte Zahlen gedanklich vorstellen. Für sie würden etwa die folgenden Operationen gelten:

0/0 = 1; 0/∞ = 0; ∞/∞ = 1; ∞/0 = ?; ∞/n = ∞; n/0 = ∞ für n ≠ 0

Ob Mathematiker sich bereits mit solchen Zahlen angefreundet haben, weiß ich nicht. Einem Informatiker würde ich davon abraten.

HW: Auf die Worte kommt es mir nicht an. Meinetwegen nennen wir Thema A jetzt wieder Information Hiding. David Parnas freut es. Wie nennt man dann die Abstrakten Datentypen (ADT)? „Hidden Data Type“ oder „Gekapselte Daten“? Alles archaische, metaphorische  Bildersprache. Das ist wie bei „Eiweiß“. Das erweckt falsche Vorstellungen. Wissenschaft macht „Protein“ daraus. Eiweiß kommt  nicht nur im Weißen des Eis vor. Protein, das versteht so ohne Weiteres wenigstens niemand, (also auch nichts Falsches), es sei denn, er schreibt eine Formel an die Tafel. Eiweiße haben alle die gleiche Struktur und werden vom Fachmann als solche sofort erkannt.

BD: Ich weiß, dass Worte oft der Anlass für Schwierigkeiten in der Kommunikation sind. Sie sind immer so vorbelastet. Mit dem Adjektiv 'abstrakt' habe ich weniger Probleme als mit dem Substantiv 'Abstraktion'. Eine Darstellung kann leicht 'abstrakter' sein als eine andere. Ist sie damit auch 'abstrakt'? Manchmal ist es leichter besser zu sein als gut.

Schlussgedanken

Für Platon (428-348 v. Chr.) ist bekannt, dass er die Idee eines Dings für wichtiger hielt als das Ding selber. Die Idee eines Dings ist für Philosophen eine Abstraktion, eine Translation aus der realen Welt in die Welt des Geistigen. Sobald von der Idee eines Computers, eines Programms, einer Datei, usw. geredet wird, sollte sich ein Informatiker als nicht zuständig erklären. Anders ist es, wenn über konkrete Computer, Programme und Daten gesprochen wird oder wenn die Menge (genauer gesagt, die Klasse) aller Rechner, Programme oder Dateien gemeint ist, die etwa im Internet zugreifbar sind oder die Untermenge, die gültig oder lauffähig ist. Da liegen die echten Aufgaben für Informatikerinnen und Informatiker.  Niemand sagt, dass dies leichte und unwichtige Aufgaben seien.

Es gibt eine Menge von Begriffen, die sich als Alternativen zu dem Wort Abstraktion anbieten würden: Dekonkretisierung, Despezifierung, Entformalisierung, Entpräzisierung, Transzendenz, Vergeistigung, Verunschärfung, usw. Gegen die Benutzung außerhalb der (praktischen) Informatik (Bsp. für abstrakte Malerei oder abstrakte Kunst) habe ich nichts einzuwenden. Bei abstrakter Interpretation und abstrakter Syntax fühle ich mich eher unwohl.


Fortsetzung und vorläufiger Abschluss am 11.8.2016

Nach der Veröffentlichung dieses Blog-Beitrags entwickelte sich der Dialog zwischen Hartmut Wedekind und mir noch erheblich weiter. Diesen Teil der Diskussion gebe ich hier als normalen Blogtext wieder, anstatt in den Kommentarmodus zu wechseln. Der Text ist so leichter lesbar.

HW: Nicht auf Platon und Aristoteles, sondern auf Gottlob Frege (1848-1925), den Begründer der modernen Logik, beziehe ich mich. Auf einer Tafel an seinem Geburtshaus in Wismar steht der Satz „Er ermöglichte durch seine Vorarbeit die Elektronische Datenverarbeitung.“ Na bitte, wenn das nichts ist! Frege hat auch die moderne Abstraktionslehre entwickelt. Er müsste der eigentliche Angriffspunkt der Kritik sein. Bei mir kommt in Sachen Abstraktion nichts Neues hinzu. Die Lehre Freges ist rund 130 Jahre alt und jedermann zugänglich.

BD: Wer Frege als Vordenker der Informatik ansieht, sollte dies auch bei Gerbert d'Aurillac tun, alias Papst Silvester II (946-1003). Wie kaum ein anderer engagierte er sich für die Einführung arabischer bzw. indischer Ziffern im Abendland. Ohne sie hätten es menschliche und mechanische Rechner verdammt schwer, besonders mit der Division. Ein Problem hätten sie allerdings weniger. Eine Division durch Null käme nicht vor.

HW: Logik hat viele Höhen und Tiefen erlebt: Hoch bei den Griechen, Tief bei den Römern, Hoch im Mittelalter (diverse Päpste waren bedeutende Logiker, die aus den Klöstern kamen), Tief in der Renaissance auch noch bis in die Aufklärung hinein. Leibniz gehört nicht zu den großen Logikern. Man kann auch sagen, warum. Das neue Hoch begann mit Frege. Dann folgten Tarski, und Gödel. Leider haben die Mathematiker die Logik unter ihre Fittiche genommen und z.B. auch die Juristen, die im Mittelalter noch sehr nah dran waren, total verdrängt. Mathematiker sind Usurpatoren, die scheinbar alles besser wissen. Lesen Sie mal eine ordentliche Geschichte der Logik, da sieht das (aristotelische) Mittelalter glänzend aus.

BD: Gerbert hatte in Córdoba, Sevilla, Fes oder Kairouan Arabisch und Mathematik studiert. Ob er als Logiker von anderen Logikern anerkannt wird, weiß ich nicht. Jedenfalls kommt er in einem früheren Blog-Eintrag von mir vor. A propos Frege. Bei ihm finde ich den Satz: 'Das Abstraktum von x sind alle y, die in einer Äquivalenzrelation zu x stehen.' Was hat das mit Datenverarbeitung zu tun? Kann man das mit Lochkarten verarbeiten?

HW: Der Wertebereich von y sei: (III, ***, ???, 000, &&&, $$$, .... ). Bei Lochkarten braucht man für Sonderzeichen Mehrlochungen pro Spalte.  Man erkennt das Muster (Bem.: Tiere können das nicht): Alle Symbolfolgen im Wertbereich y sind gleichlang. Man sagt auch anzahlgleich (Frege).  Das ist die Abstraktionsleistung! Es entsteht ein Abstraktum, das wir Muster nennen wollen. Das ist insofern neu, als wir neu über Altes reden. Abstraktion ist eine neue Art zu reden, nur eine "facon de parler". Gleichlang oder anzahlgleich ist eine Äquivalenzrelation. Ich kann jetzt über das Muster III reden, invariant in Bezug auf alle Darstellungen im Werteberich von y, wenn nur die Bedingung gleichlang eingehalten wird.  Die Lochkarten für den Wertebereich kann ich wegwerfen. Mich interessieren ja nur alle Gleichlangen zu III, auch neuproduzierte. Früher in der Scholastik sagte man "Man hat das Wesentliche erkannt." Ich darf jetzt mit "Muster III" Sätze bilden z:B. :  "Muster III ist ungerade."

Die Definition von Äquivalenz (Leibniz, 1664-1716) lautet: x ist äquivalent zu y, wenn alle Aussagen P über x auch, also P(x), auch für y gelten, also P (y), und umgekehrt. Man sagt auch: P( ) ist invariant (d.h. der Wahrheitswert von P( ) bleibt unverändert) in Bezug auf das Austauschen von x durch y und umgekehrt. Psychologen und Juristen begreifen das nie. Abstraktion ist seit Frege ("Die Grundlagen der Arithmetik", 1884, bei Reclam billigst zu erwerben) sprachlogisch zu verstehen. "Aussage" (proposition) ist ein sprachlogischer Terminus. Haben die Mathematiker die Fregesche Abstraktionlehre anerkannt?  Ja, sie haben es mit ihren Äquivalenzklassen, aber nur extensional, das Intensionale interessiert sie auch nicht.

BD: Habe ich Sie richtig verstanden? Ich wähle mal ein sehr praktisches Beispiel: Ein Passwort muss 8-20 Zeichen lang sein und muss mindestens einen Großbuchstaben A-Z und ein Sonderzeichen §$%&/()=?*+~# enthalten. Sagen Sie, diese syntaktische Regel spezifizert (implizit) ein Abstraktum, eine nicht explizit aufgelistete Menge (oder Klasse) mit den zugelassenen Elementen?

HW: Ja! Sie definieren eine Menge von Passwörtern als Abstraktum. Alle Mengen sind Abstrakta, aber das tun sie doch explizit durch Angabe von Regeln, die die Eigenschaften der Elemente der Menge bestimmen. Die Regeln sind aber keine Axiome (allgemein wahre Aussagen), so z.B. wie Peano seine Axiome zur impliziten Definition der natürlichen Zahlen einführte. Man kann die Peano- Axiome konstruktiv beweisen. Ihre Regeln kann man nicht beweisen. Die sind einfach schlicht so, um es Eindringlingen schwer zu machen. Peano, der war gegenüber dem zahlen-gottgläubigen Kronecker schon ein Fortschritt.

Wir Wedekinder sind immer ganz traurig. Es müsste eigentlich Peano-Dedekind-Axiome heißen. Unser berühmter Fast-Namensvetter Richard Dedekind (übrigens Nachfolger von Gauß in Braunschweig) wird leider immer verschwiegen. Dedekind war ein berühmter Zahlentheoretiker. Wenn ich mich Mathematikern vorstelle, fragen die in der Regel nach  "wie heißen Sie? Meine prompte Antwort: "Nein, nein, nicht so wie Sie meinen."

BD: Wenn Sie jede implizit definierte Menge (oder Klasse) als Abstraktum bezeichnen, so wundert mich das zwar. Falls es wirklich keine guten anderen Begriffe für diese Form der Bildung von Gruppierungen gibt, werde ich es wohl akzeptieren müssen. Also wimmelt es auch auf der Erdoberfläche nur so von Abstrakta, nicht nur im Himmel der Philosophen. Nur das einzelne Element einer Menge ist noch konkret, die Menge selbst jedoch nicht mehr, sofern die Elemente nicht explizit gelistet sind. Man lernt nie aus!

Donnerstag, 4. August 2016

Internet-Sicherheit: Mal etwas Positives (mit Nachtrag)

Vor drei Jahren, im Sommer 2013, veränderte sich das Weltbild einiger Internet-Nutzer. Edward Snowden, ein nach Russland sich absetzender früherer Auftragnehmer der National Security Agency (NSA) der USA, hatte an einigen Grundfesten gerüttelt. Den Begriff Internet verband man nicht länger mit freundlichen Nerds, enthusiastischen Predigern und dezent im Hintergrund wachenden Behörden. Jeder dachte fortan an Schlapphüte und Gangster, die sich dort ihr Stelldichein gäben.

Plötzlich war Sicherheit im Netz ein Superthema, das nicht nur einzelne Spezialisten in großen Firmen beschäftigte. Jedermann und jede Frau seien betroffen, vor allem aber Teenager, Schul- und sogar Kleinkinder. Verschlüsselung aller Texte und E-Mails galt als das Allheilmittel. Dass es hierfür keine ordentlichen Lösungen gab, die auch von Privatpersonen nutzbar waren, machte einige Kollegen – um nicht zu sagen, die ganze Fachwelt  ̶  sehr besorgt. Die Gesellschaft für Informatik (GI) machte sich zum Sprachrohr der Enttäuschten und half zumindest bei der Aufklärung. Ich habe darüber ausführlich in diesem Blog berichtet. Ich zitierte damals meinen Kollegen Rudolf Bayer aus München wie folgt:

Die Einrichtung von E-Mail-Verschlüsselung ist derzeit sehr umständlich. Sie wird in der Praxis deshalb kaum eingesetzt, weder im Privaten noch in der Wirtschaft. Ich sehe für die Informatik eine große Herausforderung darin, diese Situation zu ändern und unterbreite konstruktive Vorschläge. … Das Abhören des E-Mail-Verkehrs ist kein Big Data Problem, sondern überraschend Small Data.Die Einrichtung von E-Mail-Verschlüsselung muss so einfach werden wie die Installation einer App auf einem Smartphone!

Rudolf Bayers Klage scheint Gehör gefunden zu haben. Nach drei langen Jahren tat sich endlich etwas. Drei Jahre – so werden Sie sagen  ̶  sind ja im Internet eine Ewigkeit. Schließlich hat eine mit öffentlichen Mitteln geförderte Forschungseinrichtung sich des Problems, das Rudolf Bayer und viele andere Fachleute so erregte, angenommen. In diesen Wochen wurde von dem Fraunhofer-Institut für sichere Informationstechnik (SIT) in Darmstadt endlich eine App frei ins Netz gestellt. Hurra! Bezeichnend ist, dass offensichtlich private Investoren hierfür bisher keinen Bedarf sahen. Das möge verstehen, wer will. Ich jedenfalls hätte selbst als Rentner sogar 10 Euro pro Monat bezahlt.

Auf die Verfügbarkeit der App wurde ich am Dienstag dieser Woche (2.8.2016) von Simone Rehm, der früheren GI-Vizepräsidentin, aufmerksam gemacht. Hier Ihre Mail:

Liebe GI-Mitstreiter, nachdem im September 2014 [beim GI-Fellow-Treffen in Stuttgart] das Thema „laientaugliche Ende-zu-Ende Verschlüsselung“ tot zu sein schien, hat sich nun erfreulicherweise etwas getan: In unserer [Stuttgarter] GI-Regionalgruppe gab es heute Abend einen hervorragend und topaktuellen Vortrag zum Thema Volksverschlüsselung von Dipl.-Inf. Michael Herfert (Leiter Cloud Computing and Identity & Privacy, Fraunhofer-Institut for Secure Information Technology, Darmstadt). Der Referent hat sehr kompetent und anschaulich über die Volksverschlüsselung berichtet, eine Initiative des Fraunhofer-Instituts in Darmstadt kombiniert mit einer App, die vor wenigen Wochen „live“ ging und nach meinem Verständnis alle unsere Erwartungen von damals erfüllt. Hier der Link zum Nachlesen.

Der Link führt zu mehr Information und zur Download-Möglichkeit der App. Es gibt sie für IOS- und Android-Systeme. Ich selbst hatte sie innerhalb einer knappen Stunde am Laufen. Für den Zugang benutze ich mein T-Online-Konto, über das ich seit Jahren meine E-Mails empfange und versende. Für den Fall, dass Sie kein Konto bei der Telekom haben, gibt es andere Möglichkeiten.

Ein Kollege bezweifelte, dass der Name Volksverschlüsselung gut gewählt sei. ‚Ich musste erst mal an Negatives wie Volksverdummung oder Volkswagen [!] denken‘ meinte er. Ich entgegnete: ‚Der Name störte mich kaum. Hauptsache, es tut jemand etwas, anstatt immer nur zu reden. Jetzt sollte man testen, ob sich damit eines der 'größten Probleme des Internets' wirklich löst.`

Es muss sich herausstellen, ob dieses kostenloses Angebot angenommen wird, vor allem von den Leuten, die bisher den (Internet-) Weltuntergang befürchteten. Technisch gesehen erscheint die App alle Anforderungen zu erfüllen. Ich hoffe natürlich, dass der Sponsor des Projekts, sei es der Staat oder ein nicht genannter Internet-Provider, keinerlei Auflagen mit der Finanzierung verknüpft hatte, oder dass nicht clevere Hacker die FhG unterwandern oder überlisten werden. Letzte Sicherheiten – das hören wir ja immer wieder  ̶  kann niemand geben. Die lange Entwicklungsdauer deutet daraufhin, dass hier keine ‚agilen‘ Methoden zur Anwendung kamen. Sorgfalt und penible Arbeitsweise ermöglichen zwar ein hoch qualitatives Produkt, sie garantieren es jedoch noch nicht.

Vor drei Jahren hatte ich – von Rudolf Bayer beraten – schon einmal eine Lösung implementiert. Sie kostete mich einigen Aufwand. Nicht nur lief die kostenlose Lizenz nach einem Jahr ab, ich hatte kaum Kollegen in meinem Bekanntenkreis gefunden, die mir verschlüsselte Mails schickten. Ob es dieses Mal anders sein wird? Noch habe ich meine Zweifel. Vielleicht ist die Verschlüsselung nicht die allseits erhoffte Lösung des Vertrauensproblems. Genau deshalb werbe ich für diesen zweiten Versuch. Gerne würde ich auch über diesbezügliche Erfahrungen meiner Leserinnen und Leser in diesem Blog berichten.


Nachtrag vom 10.8.2006

Michael Herfert ist Leiter des Projekts Volksverschlüsselung beim FhG-SIT in Darmstadt. Gestern gab er mir in einem Telefonat einige Informationen zum Projekt. Das Projekt wurde im Herbst 2013 als internes Projekt des Instituts gestartet. Einschließlich Werkstudenten arbeiteten nie mehr als 10 Mitarbeiter an der Software. Anlässlich des IT-Gipfel 2015 kam der Kontakt zur Telekom zustande. Man gewann die Telekom dafür, die Server-Software in einem ihrer sicheren Rechenzentren zu betreiben. Seit der Ankündigung der Verfügbarkeit im Sommer 2016 besteht großes Interesse in der Öffentlichkeit. Es ist der derzeitige Plan, die Verschlüsselung für Privatkunden langfristig kostenlos anzubieten. Man hofft kommerzielle Kunden wie zum Beispiel Banken, Versicherungen und andere Unternehmen mit Kontakt zu Privatkunden dafür zu gewinnen, die angebotene kostenlose Verschlüsselung für die Kommunikation mit diesen Kunden zu verwenden. 

Mittwoch, 3. August 2016

Physik zwischen Kritikern und Bewunderern ̶ Von Alexander Unzicker bis Natalie Knapp

Schon mehrmals habe ich mich mit dem Erscheinungsbild und dem Selbstverständnis der modernen Physik befasst. Ich berichtete sowohl über die Meinung von einigen prominenten Physikern (Rothman und andere) wie über die populistische Kritik eines Außenseiters (Unzickers Tiraden). Es wirkt gerade zu erfrischend zu sehen, dass die moderne Physik sehr inspirierend wirken kann für Autoren, die nicht aus der Physik stammen. Manchmal können Insider von Außenstehenden lernen.

Eines Krakeelers angekratzte Platte

Wenn ich jedes Buch einzeln bezahlen müsste, das mir im Rahmen meines Skoobe-Abos angeboten wird, würde ich viel weniger lesen. Jetzt kostet es mich nur die Zeit. Bei Alexander Unzickers zweitem Buch wollte ich nur hineinschnuppern. Dann las ich es doch vollends zu Ende. Es heißt: Auf dem Holzweg durchs Universum. Warum sich die Physik verlaufen hat. (Erschienen 2012, 253 Seiten).

Manche Fragen, die Unzicker stellt, stellen sich alle Physiker. Sie sind halt unbeantwortet. Vier Beispiele vorweg: Warum ist Gravitation so schwach? Können sich Naturkonstanten ändern? Woher kommt Masse? Warum kann das Elektron nicht kugelförmig sein? Bei Unzicker entsteht der Eindruck, dass er in der Physik eine Entwicklung vermutet, wie sie 1870 in der katholischen Kirche nach dem ersten vatikanischen Konzil eintrat. Es setzte sich die Meinung einer Mehrheit durch. Die unterlegene Minderheit zog sich zurück (oder löste sich von der Kirche). Das Ereignis, das die Physik spaltete, war die berühmte (fünfte) Solvay-Konferenz von 1927. Es setzten sich Niels Bohr, Max Born, Werner Heisenberg und andere durch, das so genannte Kopenhagener Modell. Die Fragen, die Albert Einstein, Erwin Schrödinger und Paul Dirac beschäftigten, wurden zur Seite geschoben. Einstein wollte keinen Zufall, Dirac spekulierte über große magnetische Monopole, Schrödinger sah nur Wellen, aber keine Partikel. Die Kopenhagener Gruppe sei Schuld daran, dass es heute kein einheitliches Bild der Physik gäbe. Ein Beispiel für diesen Irrweg sei die Stringtheorie.

Die Stringtheorie ist auf dem Weg zur Esoterik. Sie erinnert mehr ans Messen lesen als ans Messen. Auch die ‚Loop quantum gravity‘ eines Lee Smolin ist nicht besser.

Eine Aussage sei als Beispiel herausgegriffen. Richard Feynmans Quantenelektrodynamik (QED) würde heute als sehr erfolgreich angesehen. Sie gäbe aber keine Erklärungen, warum etwas geschehe, etwa warum elektromagnetische Felder aus einem Elektron-Positron-Paar spontan entstehen. Feynman habe diese Lücke in der Theorie der Elektrodynamik selbst zugegeben. Die Quantenfeldtheorie (QFT) sei wie die Stringtheorie. Sie sei nicht falsifizierbar. Als völlig offen sieht Unzicker die Frage: Wie wird eine Welle zum Teilchen?

Wer Quantenmechanik und Elektromagnetismus vereinigen will, muss beides besser verstanden haben als Feynman.

Seit den 1930er Jahren würde für jeden neuen Effekt ein neues Teilchen definiert bzw. gefordert. Kraft würde nur erklärt als ein Austausch von Teilchen. Heute umfasst der ‚Teilchenzoo‘ 70-80 Teilchen. Zuletzt kam das Higgs-Teilchen dazu. Diese ganze Richtung gefällt Unzicker nicht.

Der zweiter Hauptsatz der Thermodynamik gilt vor allem in der Physik. Es gibt immer mehr Teilchen und immer mehr Unordnung.

Unzickers zweites Gebiet ist die Astrophysik. Er habe das Gefühl etwas nicht verstanden zu haben, sobald von Dunkler Energie, Quarks, Schwarzen Löchern und Neutrinos geredet würde. Die Kosmische Inflation, die eine zentrale Rolle für die Erklärung der Entstehung des Kosmos spiele, sei ein Ereignis gewesen, das 10 hoch minus 35 Sekunden nach dem Urknall stattfand. Es sei daher völlig unbeobachtet gewesen.

Die Vorstellung, dass die Welt einfach sein muss, war einmal weit verbreitet. Sie ist es nicht mehr. …Eine Theorie ist umso besser, je weniger freie Variable sie benötigt (Ernst Mach)…Auf den Autobahnen der Wissenschaft wächst nicht viel Kreativität. In Big Science fehlen die Geistesblitze; es wird zuviel nachgeplappert.

Ernst Mach (1838-1916) wollte alle kosmischen Kräfte berücksichtigt haben, um den Begriff der Masse zu erklären. Was hat die Gravitationskonstante G mit der Masse im Universum zu tun? So fragt Unzicker. Die Dunkle Materie sei sehr seltsam definiert. Bei der Kollision von Galaxien kollidiere die Dunkle Masse nicht. Sie verklumpe im Zentrum der Galaxie. Die Dunkle Energie sei genau passend definiert, dass die Gravitation nicht zu stark wird. Das klinge nicht sehr überzeugend. Schon Einstein fragte sich, ob die Lichtgeschwindigkeit wirklich konstant sei. Der amerikanische Physiker Robert Dicke (1916-1997) hatte 1957 vorgeschlagen anzunehmen, dass Licht sich im gekrümmten Raum mit variabler Geschwindigkeit bewege. Alle Massen des Weltraums trügen zum Brechungsindex bei. Je mehr Masse im Raum, je langsamer wäre Licht. Was aus dieser Idee wurde, verrät Unzicker uns nicht.

Unzicker glaubt, dass viele physikalische Fragen überzeugendere Antworten fänden, wenn Experimente reproduziert werden könnten, oder, wo dies nicht geht, zumindest die Ergebnisse von Experimenten frei im Netz verfügbar seien. Das scheint nichts als Wunschdenken zu sein.

Nachdem ich das Buch gelesen hatte, wies mich mein Freund und Nachbar Hans Diel auf eine Rezension im Spektrum der Wissenschaft hin. Sie ist sehr kritisch und deckt sich weitgehend mit meiner Meinung. Der letzte Satz lautet:  [Ich] hoffe nur, dass die angekratzte Platte nicht ein drittes Mal aufgelegt wird. Nicht nur in der Physik, sondern auch in anderen Fachgebieten, wird die Auswahl von Forschungszielen dadurch beeinflusst, was gerade als Modethema gilt, wofür es öffentliches oder privates Geld gibt, und was im Hinblick auf eine akademische oder sonstige Karriere als erfolgversprechend angesehen wird. Daran wird Alexander Unzicker so schnell nichts ändern.

Einer Philosophin ultimative Hoffnung

Eigentlich wollte ich Unzickers zweites Buch hier gar nicht mehr erwähnen. Als ich einige Wochen später Natalie Knapps Buch las, drängte es sich auf quasi als Gegenstück. Knapp (*1970) hat in Freiburg Philosophie studiert. Sie war einige Zeit in der Kulturredaktion des SWR in Baden-Baden tätig, ehe sie nach Berlin zog. Das Buch heißt Der Quantensprung des Denkens. Was wir von der modernen Physik lernen können. (Erschienen 2011, 275 Seiten).

Es faszinierte mich zu sehen, wie jemand, der aus der Philosophie kommt, sich bemüht, eine Brücke zu bauen zwischen Philosophie einerseits und Physik andererseits, ja zwischen Geistes- und Naturwissenschaften. Auch das Thema hat mich schon öfters beschäftigt. Besonders an die Sicht von Manfred Eigen und Friedrich Dürrematt werde ich hier erinnert. Die Berührungspunkte von Philosophie und Biologie, die meinen Freund Peter Hiemann so sehr interessieren, sollen hier außen vorbleiben.

Seit es die Kopenhagener Interpretation der Quantenphysik gibt, ist für viele den Naturwissenschaften zuneigende Menschen eine Grenze überschritten worden – nicht nur für Alexander Unzicker. Für andere rücken Physiker und Philosophen endlich etwas zusammen – so sieht es Natalie Knapp. Die Quantentheorie vereinige die reale Welt mit der immateriellen, also der 'geistigen' Welt. Als Kronzeuge wird Werner Heisenberg bemüht. Seine Unschärfe-Relation reiße endgültig die Mauer herunter zwischen Physik und Geist, zwischen toter Materie und dem Lebendigen, zwischen vergangener materialistischer Erstarrung und dem modernen Heute. Das klingt mir alles reichlich euphorisch. Daher das Ganze nochmals im Detail.

Nicht alles, mit dem sich Physiker beschäftigen, setzt Materie voraus. Lange meinten auch Physiker Wellen benötigten Äther als Träger, da wo es weder Wasser noch Luft gibt. Sie haben sich davon gelöst. Es gibt immaterielle Felder, wie schon Michael Faraday erkannte. Elektromagnetische Wellen breiten sich auch im Vakuum aus. Sind sie deshalb Geist? Wohl doch kaum. Niels Bohrs Komplementaritätsprinzip verlangt, dass einzelne Teilchen sich angeblich frei entscheiden, ob sie lieber Welle oder Partikel sein wollen. Ihr Zustand reflektiert eine Wahrscheinlichkeit. Wenn sie nicht beobachtet sind, verhalten sie sich wie der Teil eines Systems. Beim Messen kollabiert die Welle der theoretischen Möglichkeiten. Es tritt ein ‚reales‘ Teilchen in Erscheinung. Ist das eine Form von freiem Willen? Verfügen Teilchen über einen  ̶  wie auch immer gearteten Willen?

Die Quantentheorie hat es Natalie Knapp angetan. Quanten heißen auch Photonen. Im Gegensatz zu Elektronen besitzen sie keine Masse, sind also keine Materie im engeren Sinne. Photonen erzeugen beim Doppelspaltexperiment Streifen. Diese verschwinden bei der Beobachtung. Durch die Quantentheorie würde der Materialismus endlich überwunden, meint Knapp. Alles sei nur Gewebe; alles sei mit allem verwoben. Das Atom stelle ja nur eine Ansammlung von Bewegungen im leeren Raum dar, ein Schwanken zwischen Existenz und Nicht-Existenz, ein energetisches Gewebe. Was ist es dann anders als unsere Gedankenwelt? Eine Brücke zwischen Materie und Geist würde sich auch in einem Zitat von Anton Zeilinger (*1945) andeuten: Materie ist Information. Es erschließt sich nur das, wonach wir fragen. Da schon Plato Ideen höher schätzte als Realität, seien auch wir nicht an den Materialismus gebunden. Die Idee einer Sache sei die Abstraktion ihrer Eigenschaften. Dieser Gedanke des Aristoteles erscheint plötzlich wie eine neue Offenbarung. Träume stellen rund ein Drittel unseres Lebens dar. Ob es daher nicht berechtigt sei, sie als Teil der Wirklichkeit anzusehen? Das Immaterielle bestimme unser Leben.

Sehr mutig, ja teilweise provokant ist, was Natalie Knapp zum Thema Denken sagt. Denken sei die Fähigkeit, Wahrnehmungen angemessen zu strukturieren. Um Neues zu denken, muss man rechnendes Denken aufgeben (ein Begriff von Martin Heidegger). Es sei denkendes Denken erforderlich. Damit sei geisteswissenschaftliches Denken gemeint. Man müsse bereit sein, den Raum des Nicht-Wissens zu betreten. Die reine Verarbeitung von Informationen sei eine kümmerliche Form des Denkens. Der Instinkt sei auch beim Denkens entscheidend. Ahnung und Intuition seien nicht zu vernachlässigen. Ein Schachmeister habe unbewusste Denkstrukturen entwickelt, die ihn Stellungen als Ganzes schnell bewerten lassen. Vom Unterbewussten würden mehr Daten verarbeitet als vom Bewusstsein, außerdem parallel. Es öffnen sich Türen, die rationalem Denken verschlossen sind

Einige gute Gedanken bringt Knapp beim Thema Sprache zum Ausdruck. Sie zitiert unter anderem Ludwig Wittgenstein mit dem Satz: Die Grenzen meiner Sprache sind die Grenzen meiner Welt. Begriffe seien am Anfang immer Metapher (oder Analogien). Die Sprache sei mehr als das, was sich als geschriebener Text vermitteln lässt. Das wusste ja Sokrates bereits. Gesprochene Sprache wird durch unsere Atemtechnik beeinflusst. Dass wir Menschen Schwierigkeiten haben, uns mehr als vier Dimensionen vorzustellen, läge auch daran, dass wir dafür (noch) keine Sprache haben.

Ein Nachtrag

Einige dieser Gedanken werden in einem späteren Buch derselben Autorin aufgegriffen und weiterentwickelt. Es ist das Buch: Kompass neues Denken. Wie wir uns in einer unübersichtlichen Welt orientieren können. (Erschienen 2013, 336 Seiten). Nur ein paar Highlights.

Ein Hermeneutischer Zirkel drückt sich laut Martin Heidegger darin aus, dass ein Text ohne Leser gar nichts bedeutet. Eine Dekonstruktion im Sinne Jacques Derridas tritt dann ein, wenn Überzeugungen der Vergangenheit verändert werden, um die Zukunft zu verstehen. Sie kämen heute hauptsächlich in den Geisteswissenschaften vor, noch zu wenig in den Naturwissenschaften. Hermann Hakens Selbstorganisation ließe Neues entstehen durch Beziehungen. Er nennt es Emergenz. Unser Gehirn emergiere aus den Nervenzellen. Diese haben nur zwei Zustände Feuern/Nicht-Feuern. Emergenz geschähe ohne Plan. Es entstehen komplexe Organismen. Das Internet bewirke eine virtuelle Evolution. Wir reagieren schneller auf Wissenslücken und knüpfen leicht neue Beziehungen. Es fänden mehr Rückkoppelungen statt. Beziehungen führten zum Denken und damit zum Sprechen. Schriftsteller pflegten das analoge Denken, das Denken in Analogien. Gene sind konservative Kräfte. Sie erhalten die erreichte Komplexität. Zellen ändern sich laufend und passen sich der Umwelt an.

Zusammenfassung und Bewertung

In jeder Wissenschaft gibt es offene Fragen. Sie sind kein Zeichen von Schwäche oder von Nachlässigkeit. Eine Wissenschaft erzielt ihre Fortschritte oft dadurch, dass zunächst unbewiesene Hypothesen oder Theorien formuliert werden. Karl Popper (1902-1994) hat es geradezu zum Lackmustest einer Wissenschaft erhoben, dass sie nur Theorien zulässt, die sich auch als falsch erweisen können, sollten die dafür benötigten Beweise und Indizien auftreten. Eine so verstandene Wissenschaft ist das Beste, was wir Menschen zurzeit haben.

Wenn wir zwischen zwei Theorien wählen müssen, von denen wir noch keine falsifizierenden Messungen oder Beobachtungen haben, dann kann es sinnvoll sein, derjenigen Theorie den Vorzug zu geben, die uns einfacher erscheint. Das ist das berühmte Rasiermesser des William von Ockham aus dem 14. Jahrhundert (engl. Occam’s rasor). Sehr oft erwiesen sich die einfachen Lösungen als nicht haltbar. So erging es auch René Descartes (1596-1650), der die Welt zwischen Materie und Geist aufteilte. Dass man Geist leugnete und alles zur Materie erklärte, war in gewissen Kreisen lange die vorherrschende Doktrin. Der Zusammenbruch des Kommunismus hat diese Weltanschauung desavouiert.

Geradezu naiv mutet es an, wie Natalie Knapp sich bemüht, gewisse Ergebnisse der Physik so zu interpretieren, als ob jetzt eine Inbesitznahme der Realität durch den immateriellen Geist erfolgt sei. Was wirklich nottut, ist eine bessere Differenzierung. Es müssen unter anderem klare Worte dafür gefunden werden, was die immateriellen Ausdrucksformen der Natur von dem unterscheidet, was der menschliche Geist an Gedanken oder Gefühlen formuliert. Dass unsere Gedanken und Gefühle ein Korrelat in der realen Welt haben, liegt zwar nahe, ist aber noch lange nicht bewiesen. Wie weit man heute noch bei sehr grundlegenden Begriffen, selbst innerhalb von Naturwissenschaft und Technik, auseinander liegt, zeigt der Begriff der Information. Es ist dies eine wiederkehrende Melodie dieses Autors und dieses Blogs.

Mittwoch, 27. Juli 2016

Nochmals: Meine private Informatik-Erfahrung

Fünf Jahre sind es seit meinem Bericht im Februar 2011 über Meine private Dreischichten-Informatik. Ich möchte heute einige ergänzende Angaben machen. Das Thema ist ja wichtig und interessant genug, um es immer wieder und aus andern Perspektiven zu betrachten. Damals schrieb ich:

Ich benutze Rechner, die ich herumtrage, solche, die ich auf dem Sofa liegend nutze, und solche, für die ich aufstehe und zum Schreibtisch gehe. Ich nenne sie im Folgenden Smartphone, Tablettrechner (Deutsch für Tablet Computer) und Desktop.

Diese Struktur blieb seither unverändert. Nur die beiden mobilen Stufen haben sich in den fünf Jahren dem Stand der Technik folgend laufend angepasst bzw. Zuwachs erfahren. Der Desktop hat sich nicht mehr geändert, abgesehen von einem Release-Upgrade des Betriebssystems. Der damals sich abzeichnende Nutzungstrend hat sich verstärkt.

Die Smartphones

Nach dem iPhone 4 bekam ich irgendwann ein iPhone 5. Meine Frau erhielt das iPhone 4, ich das iPhone 5. Eigentlich waren wir zufrieden. Als Problem erwies sich – wen kann dies wundern – lediglich die Speichergröße. Die 16 GB füllten sich immer wieder, meist der Fotos wegen. Erst als das iPhone 6S herauskam, dessen Speichergrenze bei 64 GB liegt, konnte ich nicht mehr Nein sagen. Für mein iPhone 5 konnte ein anderes Familienmitglied als Nutzer gewonnen werden. Obwohl nur der größere Speicher schon die Anschaffung rechtfertigte, erwiesen sich zwei andere Hardware-Verbesserungen als echte Vorteile. Erstens, der Bildschirm ist 50% größer und hat eine bessere Auflösung. Zweitens, das Telefon ist jetzt sogar nutzbar.

Alle aktuellen Fotos von Familienereignissen der letzten fünf Jahre (50 Alben, etwa 3000 Fotos) stehen jetzt auf allen Geräten der Hierarchie physikalisch zur Verfügung. Als Backup stehen sie außerdem in einer Cloud. Auch habe ich – bis auf Weiteres – keinen Grund irgendwelche Apps zu löschen, die ich nur ganz selten benutze. Etwa 250 Apps sind derzeit aktiv. Ich teile sie in drei Gruppen ein:

(a) Täglich oft mehrmals genutzt. Das sind etwa 50 Apps. Dazu gehören Mail, WhatsApp, Threema, Facebook, N-TV, SPON (Nachrichtendienst Spiegel Online), Evernote, Google, Google+, Wikipedia, FAZ, Süddeutsche, LinkedIn, Handelsblatt und Heise.

(b) Etwa einmal pro Woche genutzt. Das sind weitere etwa 50 Apps. Typische Beispiele sind Bertals Blog, Kamera, Karten, Kontakte, Onefootball, DER SPIEGEL, Solitaire, Web.de-Foto und Finanzen100.

(c) Etwa einmal pro Monat oder nur gelegentlich benutzt. Das sind die übrigen 150 Apps. Dazu gehören Amazon, Birthdays, dict.cc (Wörterbuch), Das Örtliche (Telefonbuch), Mühle, Sudoko, Vivino (Wein-Scanner) und Youtube.

Der größere Bildschirm führte dazu, dass ich mehr Zeitungen oder Filme auf dem iPhone 6S anschaue als vorher auf dem iPhone 5. Das iPhone 5 hatte ich als Telefon kaum genutzt. Das hing damit zusammen, dass die Antenne so eingebaut war, dass man sie leicht abdeckte. Mit dem iPhone 6S telefoniere ich oft aus reiner Bequemlichkeit. Anstatt eine nicht gespeicherte Telefonnummer im Festnetz zu wählen, tippe ich lieber die Nummer in der Liste meiner Kontakte auf dem Smartphone an. Ob Mobiltelefon oder Festnetz in den Kosten ist kaum ein Unterschied.

Die Tablets

Die weitaus größten zusammenhängenden Zeiten verbringen meine Frau und ich, lesend, schauend und hörend, mit Tablettrechnern. Aus dem einen iPad wurden deren drei. Der neueste ist ein iPad Air. Er ist besonders flach und leicht. Zwei Geräte stehen an zwei Orten im Haus, an denen ich mich wechselweise aufhalte. Das dritte Gerät benutzt meine Frau.



Jede Woche, beginnend am Freitagabend, lesen meine Frau und ich die iPad-Ausgabe des SPIEGEL. Ich habe die rund 100 Seiten in der Regel in zwei Tagen durch, meine Frau braucht manchmal die ganze Woche (Sie kümmert sich nebenher noch um den Haushalt). Der Mehrwert des elektronischen SPIEGELs sind inzwischen Videos zu allen Ereignissen und Reportagen. Neuerdings höre ich auch fast alle Fernseh-Nachrichten (ARD, ZDF) auf dem iPad. Alle Spiele der Fußball-EM, die ich anschaute, liefen auf dem iPad. Dasselbe gilt für jedes Buch, das ich lese. Ich lese mal in einem Raum ein paar Kapitel, dann lese ich im anderen Raum weiter. Die wichtigsten Anwendungen auf den iPads sind derzeit Skoobe, iBooks, SPIEGEL, N-TV, ARD, ZDF, Arte und Google Earth.


Der Desktop

Am Desktop arbeite ich nur, wenn ich viel Text eingebe, d.h. längere E-Mails verfasse oder irgendwelche anderen Veröffentlichungen produziere. Das kommt immer seltener vor. Obwohl die Hardware-Konfiguration de facto unverändert blieb, sorgte die Software für ungeplante Herausforderungen. Auf zwei Episoden will ich kurz eingehen.

Seit einigen Jahren benutzte ich auf dem Desktop das Betriebssystem Windows 8. Irgendwann in den letzten Monaten bot Microsoft einen kostenlosen Upgrade auf Windows 10 an. Der einzige Grund eine Umstellung in Betracht zu ziehen, war die Angst irgendwann vom Service abgehängt zu werden. Dann kam vorübergehend das Gerücht auf, dass der Upgrade alsbald kostenpflichtig würde. Das wurde von Microsoft dementiert. Trotzdem warb Microsoft fast täglich mit Nachrichten am Rechner dafür, die Umstellung vorzunehmen. Irgendwann muss eine solche Nachricht nach Uhrzeiten gefragt haben, wann die Umstellung stattfinden sollte. Ich hatte das übersehen. Jedenfalls wurde ich eines Tages, mitten bei der Texteingabe in Word unterbrochen und die Umstellung wurde gestartet. Etwa eineinhalb Stunden lang war mein Rechner blockiert. Als er wieder freigegeben wurde, war Windows 10 installiert. Ich konnte die Texteingabe an genau derselben Stelle weitermachen, an der ich unterbrochen worden war. Nicht ein einziger Buchstabe war verloren gegangen. Das Layout des Bildschirm hatte sich leicht geändert, aber nicht so, dass man eine längere Umgewöhnung benötigte. Eine einzige Anwendung musste ich neuinstallieren. Es war das Antiviren-Programm. Ich habe bis heute keine neue Funktion genutzt, auch nicht die neue Hilfefunktion namens Cortana. Das Geschäftsmodell, das Microsoft zum Verschenken von Software verleitet, wurde mir alsbald klar. Windows 10 analysiert meinen Rechner und stellt fest, welche andere Software von Microsoft ich installiert habe, für die es einen kostenpflichtigen Update gibt. Der Update wäre doch sehr wertvoll und ich sollte ihn kaufen.

Eine unangenehme Folge hatte die Umstellung. Fast täglich werde ich einmal mit dem berühmten blauen Bildschirm konfrontiert. Ich kannte den bisher nur vom Hörensagen. Der Fehlertext schwankt. Meistens wird als Ursache eine unerwartete Seitenunterbrechung (engl. unexpected page fault) angezeigt. Das Traurige ist, dass ich weder Hinweise zur Behebung des Fehlers erhalte, noch dass der Neustart automatisch erfolgt.

Die zweite Episode ist weniger erfreulich, sowohl für Microsoft wie für mich. Schon vor der Umstellung auf Windows 10 erhielt ich – immer um die Zeit meiner Mittagsruhe – einen Anruf aus Indien. Es stellte sich jemand auf Englisch vor, meistens ein Mann (z. B. mit ‚Hello, my name is Harry‘), manchmal eine Frau, und sagte er oder sie arbeiteten für Microsoft. Man wolle mir sagen, dass mein Rechner immer wieder seltsame Nachrichten an Microsoft sende. Meistens brach ich das Gespräch an dieser Stelle ab. Einmal bat ich darum, mir eine E-Mail mit Details zu senden. Darin wurde der Name eines Virus genannt, der für das Senden der Nachrichten verantwortlich sei. Darauf ließ ich bei mir mein Antivirusprogramm laufen – und siehe da – es fand ein Dutzend Viren.

Ich hatte gehofft, dass damit die Anrufe aus Indien aufhören würden, hatte mich aber leider getäuscht. Als ich daraufhin dieser Tage mein Antivirenprogramm eine neue Analyse vornehmen ließ, fand es in der ersten Million von Dateien nichts. Erst nach 11 Stunden und 19 Minuten wurde es fündig. Es fand zwei Viren in einer Datei, die sich in der Cloud befand. Das fehlt mir noch – dachte ich. Die Cloud war mir schon deshalb lästig geworden, weil ich dafür zusätzliche Speicherkapazität mieten sollte.

Sonstige Anwendungen

Ebenfalls im Februar 2011 berichtete ich über Meine Erfahrungen mit Amazon und eBay. Meine Beziehungen zu beiden Anwendungen bzw. Firmen hat sich sehr unterschiedlich entwickelt. Bei Amazon bin ich ein sehr regelmäßiger Nutzer geblieben. Ich bestelle etwa jeden Monat 1-2 Produkte bei Amazon.  Es sind fast immer Elektro- oder Haushaltsgeräte nebst Zubehör. Die Einfachheit der Bestellung und Abrechnung und die Schnelligkeit der Lieferung beeindrucken mich jedes Mal wieder. Bücher beziehe ich grundsätzlich nicht von Amazon, sondern von Apple (iBooks) oder Skoobe. Meine Hoffnung richtet sich derzeit auf Amazon, was die Lieferung von frischen Lebensmitteln anbetrifft. Wenn irgendjemand dies schaffen sollte, dann wird es Amazon sein, der hierfür eine akzeptable Lösung finden wird. Keinem anderen Dienstleister traue ich es zu. Bei eBay bin ich so gut wie nicht mehr aktiv.