Dienstag, 29. Oktober 2013

Nochmals: Ausspähen der Privatsphäre

Der SPIEGEL hat diese Woche die Diskussion um das Ausspähen der Bürger um zwei neue Informationen bereichert. Die US-Botschaft in Berlin besitzt technische  Einrichtungen auf ihrem Dach, die gemeinsam von NSA und CIA genutzt werden. Außerdem hat das Weiße Haus eingeräumt, im Handy von Kanzlerin Merkel seit 2005 einen Trojaner platziert zu haben. Die Reaktion in der Öffentlichkeit, also in den Medien, hat unterschiedliche Formen angenommen. Auch der neue Bundestag wird das Thema auf seine Tagesordnung setzen. 

Fernsehdiskussion

Ich gebe im Folgenden nur einige der Meinungen wieder, die am Sonntagabend in der Sendung von Günter Jauch zu Wort kamen. Auch sie sind nicht uninteressant.

Ex-Botschafter Kornblum: Was die NSA tut, ist dumm. Sie überschreitet die Grenzen des Anstands im Umgang mit Partnern. Über das, was während seiner Amtszeit in der US-Botschaft in Bonn geschah, darf er nichts sagen. Das verbietet ihm sein Diensteid. Was jetzt in Berlin geschieht, davon weiß er nichts. Snowden hat seine Geheimhaltungsverpflichtung gebrochen. Auch in Amerika gibt es Prozeduren, wie man im Falle eines Gewissenskonfliktes vorgeht, ohne zum Verräter zu werden. Die Deutschen sollten sich nicht nur als hilfloses Opfer sehen. Ganz hoffnungslos ist die Situation noch nicht.

CDU-Abgeordneter Bosbach: Die amerikanischen Geheimdienste scheinen eine 100% Erfassung und Speicherung des weltweiten Daten- und Telefonverkehrs anzustreben. Unsere Geheimdienste arbeiten immer lokal begrenzt, etwa in Afghanistan.

SPIEGEL-Reporter: Die USA sammeln Unmengen an Information, um sie als politische oder wirtschaftliche Waffe zu nutzten. So kannte die amerikanische UN-Botschafterin die interne französische Diskussion über Libyen, ehe es zur Abstimmung im Sicherheitsrat kam. Alle Botschafter der USA freuen sich über das gute Briefing über das Gastland, das sie vor Amtsantritt in der NSA-Zentrale in Fort Meade bekommen.

Schriftstellerin July Zeh: Man solle nicht nur die Amerikaner und Engländer als Bösewichte hinstellen. Was die heutige Technik allen Unternehmen, Ganoven und Spionen erlaubt über die Privatsphäre einzelner Personen zu erfahren, ist unglaublich. Das gab es noch nie. Die Grundrechte der Amerikaner sind genauso bedroht wie unsere. Bei konventionellen und atomaren Waffen kam es irgendwann zu Abrüstungsgesprächen. Im Cyberwar sind noch alle in der Aufrüstungsphase. Zu verlangen, sich immer besser gegenseitig abzusichern, ist ähnlich als wenn nur noch gepanzerte Autos auf die Straßen dürften.

Ranga Yoshewar: Er war erschüttert, als er hörte, was man über seine Gesprächspartner erfahren kann, wenn er sein Handy nicht-eingeschaltet in seiner Tasche bei sich führt. Er bedauert, dass Europa das ganze Geschäft der Telekommunikation und des Internets an amerikanische Firmen verloren hat. Beispiele waren Skype, das an eBay ging, und Nokia, das jetzt zu Microsoft gehört. Nicht einzelne europäische Länder sollten mit Facebook und Google verhandeln, sondern 28 EU-Länder gemeinsam (Nur zur Erinnerung: In Deutschland verhandelt Schleswig-Holstein mit Facebook). Außerdem sieht er ein großes Geschäftspotential für europäische Unternehmen, indem sie Cloud-Dienste anbieten, die unsere deutschen Datenschutzbedingungen erfüllen.

Andere Meinungen

Dem Nachrichtendienst Golem gab Hartmut Pohl, der Sprecher des Präsidiumsarbeitskreises Datenschutz und IT-Sicherheit der Gesellschaft für Informatik (GI) diese Woche ein Interview. Darin heißt es:

Pohl geht davon aus, dass die Sicherheitsbehörden in Deutschland wissen, dass alle Personen in der Bundesrepublik Deutschland vollständig abgehört werden. Dazu würden Telefongespräche per Festnetz oder Mobiltelefon vollständig gespeichert. Auch alle Dienste im Internet würden gespeichert und könnten entsprechend ausgewertet werden, womöglich auch sofort. ... (Es) hören alle Staaten ab, die es sich finanziell leisten können.

Meine Reaktion auf die aktuelle Phase der Diskussion war: Mir kommt es etwas komisch vor, dass jetzt alle Experten Schadenfreude zeigen. 'Ätsch, wir haben es Euch doch gesagt'. Am Anfang der Snowden-Affäre schrieb ich in diesem Blog, man solle jetzt nicht gleich alle Zahlungen an Sicherheitsexperten stoppen. Eigentlich müsste dies die Frau Merkel für ihre 'Experten' tun. Da waren Stümper am Werk. Die NSA folgt eigentlich nur der Hacker-Ethik. Sie macht Nutzer von Informatik-Produkten auf ihren Leichtsinn (oder ihre Dummheit) aufmerksam. Hacker rechnen sich das stets als gute Tat an.

Hinzufügen möchte ich, dass ich keineswegs die Ansicht vertrete, dass das Bild eines einsamen Hackers ausreicht, um die NSA zu erklären. Ihre Macht und ihr Effekt sind erheblich größer. Die folgenden Überlegungen sind jedoch nicht ganz von der Hand zu weisen: Die NSA war nach 9/11 unter enormen Druck der US-Regierung, um Erfolge zu liefern. Sie bekam Geld und Rechte. Sie probierte alles Mögliche aus. Man war möglicherweise selbst erstaunt, was alles funktionierte. Statt in Ruhe (also über Jahrzehnte) aussortieren zu können, was man auf Dauer davon braucht, hat Snowden sie bloßgestellt. Jetzt müssen sie überhastet das Meiste wieder einstellen. Der Regierung gefällt das gar nicht.

Die NSA hat Hacker angeheuert und deren Methoden einfach übernommen. Man glaubt sich im 'Cyberwar' zu befinden. Dass der Begriff `Krieg' im Denken der Amerikaner schneller akzeptiert wurde als bei uns, dafür sorgte der letzte republikanische Präsident. Wenn die Europäer das alles nicht so sehen, muss man das einer gewissen Naivität oder ihrem moralischen Dünkel zu Gute halten. Ob die ‚alten Europäer‘ jedoch noch die Kurve bekommen werden, ist fraglich. So interpretiere ich das Verhalten der Amerikaner.

Nachtrag vom 21.12.2013:

Ich hatte einen in Datenschutzfragen bewanderten Juristen (Kollegen A. Rossnagel) gefragt, ob ihm der Begriff 'Privatsphäre' keine Schwierigkeiten bereite. Hier seine Antwort:

Der Begriff der Privatsphäre wird in der Informatik, im Recht und z.B. in der Soziologie recht unterschiedlich benutzt. Im Recht hat er einen relativ kleinen Bedeutungsbereich. Bei Schutz gegen Persönlichkeitseingriffe (insb. gegen Presse) steht er zwischen Intim- und Öffentlichkeitssphäre und bezeichnet einen Bereich, in den die Presse nur nach einer Abwägung am Maßstab der Verhältnismäßigkeit eindringen darf. Im Datenschutz ist der Begriff spätestens seit dem Volkszählungsurteil 1983 überholt, weil es für das Schutzgut des Datenschutzes nicht auf eine räumliche Sphäre ankommen darf. Auch Daten aus der Sphäre öffentlicher Tätigkeit können schutzwürdig sein. Als treffender hat sich der Begriff der informationellen Selbstbestimmung erwiesen, weil er besser gegen die Risiken der elektronischen Verarbeitung der Daten schützt.

Samstag, 26. Oktober 2013

Georg Büchner zum 200. Geburtstag

Mit großem Vergnügen bringe ich heute eine Würdigung des Darmstädters Büchner aus der Feder des Darmstädters Wedekind. Warum darf ein Informatiker nicht eines Schriftstellers gedenken, war meine Antwort, als gefragt wurde, ob das etwas für diesen Blog sei.

Georg Büchner steht für den Vormärz. Das ist die Periode von 1830 bis 1848. In den Nachwehen der großen Pariser Revolution von 1789 und der Niederlage Napoléons kam es dort zur Juli-Revolution von 1830. Sie fand ihren Widerhall im Hambacher Fest von 1832. Von dort führte der Weg zur Frankfurter Paulskirche in 1848.

Außer Büchner fallen mir zwei weitere Literaten ein, wenn vom Vormärz die Rede ist. Der Düsseldorfer Heinrich Heine (1797-1856) hatte seinen Wohnsitz im Jahre 1831 nach Paris verlegt und sollte nicht mehr nach Deutschland zurückkehren. Der Frankfurter Ludwig Börne (1786-1837) lebte inzwischen ebenfalls in Paris, kam aber als Ehrengast nach Hambach. Büchner studierte damals noch in Straßburg, wo die vor den Russen und Preußen geflohenen polnischen Freiheitskämpfer gefeiert wurden.

Die badischen Revolutionäre Friedrich Hecker und Gustav Struve traten erst 1848 in Kandern und Rastatt auf den Plan, ehe sie sich nach Amerika in Sicherheit brachten. Im deutschen Geschichtsunterricht mussten alle diese Namen für zwei Generationen von Schülern in der Versenkung verschwinden. Zunächst bekam die Linie, die von Bismarck über Wilhelm II zu Hitler führte, den Vorzug, mit der Weimarer Episode dazwischen.

Ich wünsche meinen Lesern viel Freude an Wedekinds Büchner. Derweil kämpfe ich mich durch ‚Dantons Tod‘ und den ‚Woyzeck‘.

Nachtrag am 1.11.2013:

Durch Wedekinds Beitrag neugierig gemacht, lud ich mir George Büchner‘s Gesammelte Werke auf mein iPad. Ursprünglich wollte ich nur schnuppern. Ich kannte bisher nur einige Titel wie ‚Dantons Tod‘ und ‚Woyzeck‘ dem Namen nach. Nach etwa 400 Seiten kenne ich jetzt das ganze Werk des Autors, einschließlich seiner Schüleraufsätze und seines hinterlassenen Briefwechsels mit seiner Familie, seiner Verlobten und seinen Freunden.

Nur so viel: Ich bin sehr beeindruckt von Büchners Persönlichkeit und Werk. Er war ein zutiefst politischer Mensch. Er erlebte und erlitt den mühseligen Prozess der misslungenen Demokratisierung unseres Landes. Im Grunde floh er resignierend in die Wissenschaft, in seinem Falle, die Medizin. Zwei Zitate aus seinen Briefen sollen dies beleuchten.

Nur das notwendige Bedürfnis der großen Massen kann Umänderungen herbeiführen. Alles Bewegen und Schreien Einzelner ist Torenwerk. (Brief an Eltern aus Straßburg vom Juni 1833)

Der Einzelne ist nur Schaum auf der Welle, die Größe ein bloßer Zufall, die Herrschaft des Genies ein Puppenspiel, ein lächerliches Ringen gegen ein ehernes Gesetz, es zu erkennen das Höchste, es zu beherrschen unmöglich. (Brief an Wilhelmine Jaeglé, seine Verlobte, vom Januar 1834)

Obwohl die Darmstädter ihn mit Recht feiern, war Hessen nicht der Ort, wo er sich wohl fühlte. Ich fand ein Zitat, das meinem Kollegen Wedekind etwas weniger gefallen wird.

Es ist unmöglich von, noch in Darmstadt etwas Vernünftiges zu schreiben. (Brief an Edouard Reuss vom 20.8.1832)

Das war so vor fast 200 Jahren. Das Elsass und die Schweiz, Straßburg und sogar Zürich gefielen ihm besser. In Zürich fiel ihm auf, dass man nicht sehr froh war, dass hier so viele deutsche Möchtegern-Revolutionäre Zuflucht suchten. Straßburg war wesentlich großzügiger.

Eine literarische Bewertung des Oeuvres traute sich Hartmut Wedekind als Laie nicht zu. Ich tue es trotzdem mit dem sicheren Gefühl, danebenzugreifen. Ich empfand jedes Werk inhaltlich und sprachlich als Unikat. Hier meine Assoziationen:
  • Dantons Tod: Fundamentalrealismus, in der Sprache 'extra dry'
  • Lenz: Wahnsinn im Gebirge, von innen erlebt
  • Leonce und Lena: fast eine Shakespeare-Komödie, ohne Elfen
  • Woyzeck: antimilitaristisches Eifersuchtsdrama

Freitag, 25. Oktober 2013

Vergesst Europa und die USA, denn in Zukunft spielt die Musik woanders

In diesem Blog habe ich mich immer wieder mit historischen Themen befasst. Über Zukunft zu spekulieren, liegt mir nicht. Es ist nämlich in meinen Augen reine Spielerei. Je länger hinaus man projiziert, umso ungefährlicher ist das Spiel. Ob die Vorhersagen richtig sind, stellt sich erst heraus, wenn entweder die Vorhersage vergessen ist oder wenn man tot ist. Bei historischen Arbeiten dagegen kann jemand auftauchen, der es besser weiß, oder es kann etwas gefunden werden, was Historiker zwingt, die ‚Geschichte neu zu schreiben‘. Dieser Problematik voll bewusst, habe ich mal wieder eine Zukunftsprojektion gelesen. Es handelte sich um das im Oktober 2013 erschienene Buch ‚Die neuen Großmächte‘ des SPIEGEL-Autors Erich Follath. Der Untertitel lautet ‚Wie Brasilien, China und Indien die Welt erobern‘. Die Überschrift des heutigen Beitrags wäre eine etwas schreiendere Variante des Buchtitels. Obschon Journalist, ist Follath (Jahrgang 1949) ein um Seriosität bemühter Autor. Er hatte immerhin mit dem Thema ‚Einfluss der Politik auf die Massenmedien‘ promoviert.

Obwohl der englische Wirtschaftsanalyst Jim O’Neill insgesamt fünf Länder durch die Abkürzung BRICS in das Rampenlicht der Weltöffentlichkeit beförderte, befasst sich Follath nicht mit Russland und Südafrika. Sie seien vernachlässigbare Sonderfälle, meint er. Für ihn bilden lediglich Brasilien, China und Indien eine Liga vergleichbarer Wirtschaftsmächte. Er hat diese drei Länder in den letzten 30 Jahren mehrfach bereist. Das Buch versucht zu begründen, warum gerade diese drei Länder das Potenzial haben, die USA und Europa in ihrer Rolle als Weltmächte abzulösen.

Wie einleitend angedeutet, halte ich jede derartige Projektion in die Zukunft für ein Spiel. Wie bei jedem Glücksspiel besteht die Chance Geld zu verdienen, sollte man Recht haben. Da man sich auch irren kann, kann man genauso gut Geld verlieren. Ehe er seine Spekulation auf den Tisch legt, beschreibt der Autor ausführlich, wie die Ausgangssituation ist und welche Faktoren nach seiner Ansicht eine Hochrechnung beeinflussen können. Da ich diese drei Länder zwar nur als Tourist kennengelernt habe, finde ich einige der von Follath vermittelten Einsichten durchaus interessant. Ich will niemanden vom Lesen des Buches abhalten. Ich werde daher nur diejenigen Einsichten wiedergeben, die eher etwas unerwartet sind. Zur Illustration der drei Länder verwende ich Fotos von eigenen Reisen. Ich stelle an den Anfang eine vergleichende Statistik, die in dieser Form nicht im Buche steht.

Die Ausgangssituation drückt sich teilweise in den Zahlen der obigen Tabelle aus. Brasilien, China und die USA verfügen über vergleichbare Landmassen. China und Indien verfügen über das größte Reservoir an Arbeitskräften. Der Lebensstandard, ausgedrückt sowohl im Bruttoinlandsprodukt (BIP) wie im Human Development Index (HDI), ist in Europa und den USA am höchsten.

Zeichen an der Wand

Zuerst einige allgemeine Aussagen, soweit sie die aktuelle Entwicklung beschreiben. In den drei Ländern wächst die Wirtschaft schneller als im Rest der Welt. Das stärkste Wachstum der Bevölkerung erfolgt in den folgenden Ballungsräumen: Schanghai, Bejing, Tianjin, Sao Paulo, Guangzhou, Shenzhen. Rio de Janeiro und Mumbay. Sie liegen alle in den drei genannten Ländern. Von London, Tokio, New York und Los Angeles redet niemand mehr, wenn es um urbane Dynamik geht.

Wie in einem früheren Beitrag dieses Blogs beschrieben, erstreckt sich Chinas wirtschaftliche Expansion nicht nur auf die Gewinnung von Rohstoffen, etwa in Afrika, sondern auch auf industriellen Besitz. Der Hafen von Piraeus und die schwäbische Firma Putzmeister sind die Beispiele. Indien griff nach renommierten Automarken wie Jaguar und der Windenergietechnik von Repower. Brasilien eignete sich der Welt größte Brauerei-Konzerne an (Anhaeuser Busch).

Beispiel Brasilien

Brasilien zeigt seine Muskeln gerne als ein führender Ernährer der Menschheit. Es exportiert Mais, Soja, Kaffee und Rinder. Seine Erdölreserven sind beachtlich. Die Industrie ist noch sehr von Importen abhängig. In Sao Paulo soll es 500 Niederlassungen deutscher Firmen geben. Viele von ihnen produzieren für den Vertrieb in ganz Südamerika. Mit Embraer besitzt Brasilien den drittgrößter Flugzeugbauer der Welt. Brasilianische Firmen seien zunehmend in Afrika, besonders in Angola und Mozambique, engagiert.
 

In Salvador de Bahia 2004

Mit der Fußball-WM 2014 und den Olympischen Spielen 2016 stehen große Medienereignisse bevor. Es ist eine große Aufgabe, sie sauber hinzukriegen. Schon wurden 10% der Armenviertel (Favelas) befriedet. Danach kann es entweder zu weiterem Auftrieb staatlicher Maßnahmen führen, oder aber zu einer großen Erschlaffung. Die noch relativ starke katholische Kirche muss sich sozial und ökologisch engagieren, wenn sie nicht Gefahr laufen will, weiter Terrain an Sekten (protestantische Pfingstler, afrikanischer Candomblé) zu verlieren.

Beispiel China

China besitzt die zwei größten Unternehmen der Welt (eine Bank, einen Elektrokonzern). Das Land ist nicht nur größter Geldgeber der USA. Mit seinen Devisen könnte es alle DAX-Firmen aufkaufen, wenn es über das Geld frei verfügen könnte. Der Wert seiner Devisen hängt nämlich davon ab, was das Land mit seinem Reichtum tut. Anders ausgedrückt, das Land ist durch seinen Reichtum gelähmt.


In Wuxi 1986

China hat die größte Wohlstandssteigerung in seiner Geschichte erreicht. Es soll 161 Milliardäre geben, davon 25% in Hongkong, Das soziale Gefälle ist enorm. Ob sich das politische System auf Dauer halten kann, wird (vor allem von Westlern) bezweifelt. Zurzeit stellt es sich als ‚Kapitalismus ohne Wahlen‘ dar, der den ‚chinesischer Traum‘ realisieren will, nämlich eine Gesellschaft in Harmonie. Die Peinlichkeiten, die bei dem gerade erfolgten Machtwechsel zu den ‚Prinzlingen‘ (Bo Xilai und Xi Jinping) zutage traten, deuteten auf Schwächen im System hin. Auch die Staubbelastung in Peking und die Umweltprobleme in Teilen des Landes stellen die Partei vor große Herausforderungen.

Die chinesischen Firmen haben die Wirtschaftskrise 2008 dank staatlicher Hilfe recht gut gemeistert. Der Markt für Billigprodukte entwickelt sich schlecht. Die Frage ist, wie schnell technisch anspruchsvolle Produkte chinesischer Herkunft an ihre Stelle treten. Chinas größter Elektrokonzern (ZTE) verdrängte bereits Panasonic bei der Zahl der Patentanmeldungen.

Während durch die Kulturrevolution ein Bruch mit dem eigenen geistigen Erbe (Konfuzius, Laotse) erzwungen wurde, ist dieses heute rehabilitiert und wieder hoch im Kurs. Probleme bestehen an den Rändern des Landes (Tibet, Xingjiang). Die Kommunisten bemühen sich durch Hebung des Wohlstands Sympathien bei den ethnischen Minderheiten dieser Regionen zu gewinnen.

Beispiel Indien

Indien bezeichnet sich voller Stolz als die zahlenmäßig größte Demokratie der Welt (über 700 Mio. Wahlberechtigte; 364 Parteien). Im Vergleich zu China hat das Land deshalb sowohl Vorteile wie Nachteile. Die Regierung ist zu vollständiger Offenlegung aller Verwaltungsmaßnahmen verpflichtet (Right of Information Act). Andererseits können sich parlamentarische Verhandlungen in die Länge ziehen. Das größte Problem ist jedoch die Qualität der Verwaltung, also die Umsetzung von Regierungsbeschlüssen. Korruption ist allerorten und nicht weg zu bekommen.
 

In Varanasi 1996

Die Gesellschaft Indiens wird vom Kastensystem des Hinduismus geprägt. Extremer Reichtum und Slums existieren nebeneinander. Mit den Muslimen, die mit 14% die größte religiöse Minderheit darstellen, kommt es immer wieder zu Gewaltausbrüchen innerhalb der Städte. Hindus und Muslims unterscheiden sich wenig, was die Rolle von Frauen betrifft. Rückständiger geht es kaum.

Unsicherheit und Zweifel

Follath lässt zwei berühmte Gewährsleute ein Urteil abgeben. Amartya Sen, dem Wirtschafts-Nobelpreisträger aus Bangladesch versucht er ein Urteil über Indiens Zukunft zu entlocken. Der hält sich sehr zurück. Demgegenüber ist Lee Kuan Yew, der frühere Bürgermeister von Singapur, sehr optimistisch, wenn um Chinas Zukunft befragt. Chinesen arbeiten und lächeln, meint Lee. Nicht nur das BIP alleine sollte man ansehen, meint Sen. Auch Wohlstand, Bildung, Gesundheitsversorgung und bürgerliche Rechte sollten betrachtet werden. Dann sind sowohl Indiens wie Chinas Wege noch sehr lang. Sen hat bekanntlich die Definition des HDI stark beeinflusst.

Die Hauptgründe, warum mit den USA noch eine Weile zu rechnen sei, seien der Dollar und das Militär. Auf den Geheimdienst NSA geht er nicht eigens ein. Man kann ihn als Teil des Militärs ansehen. Wegen der Ölgewinnung durch ‘Fracking‘ erlebe das Land eine Sonderkonjunktur. Wenn die Globalisierung Erfolg hat, dann bestimmt nicht unter amerikanischer Führung – das ist Follaths Überzeugung und Botschaft. Dass er hier noch das Wörtchen ‚wenn‘ benutzt, zeigt wie unsicher er im Grunde ist.

In Bezug auf Wirtschaftsstärke sieht er im Jahre 2025 China vor Indien und Brasilien. Was die technischen und kaufmännischen Talente und die Rechtssicherheit betrifft, ist noch für eine Weile mit Europa und den USA zu rechnen. Europa ist am schlimmsten von der Überalterung seiner Bevölkerung betroffen. In puncto sozialem Ausgleich ziehen wir aber allen andern Weltregionen davon. Wie als Trost für seine Leser hat Follath eine tolle Nachricht am Schluss. Für ihn heißt der Gewinner des Spiels – sie hätten es nicht vermutet – Deutschland. Der Grund: Wir können es besser mit den Chinesen als alle andern. Außerdem sind wir bereits in Indien vertreten (SAP in Bangalore) und in Brasilien (BMW, Mercedes und VW). Die Qualität unserer Patente (und der amerikanischen) sei besser als die der Chinesen (Wer mag ihm das wohl geflötet haben?). Schließlich seien bezüglich Lebensqualität die Städte Wien, München, Berlin und Zürich immer noch an der Spitze der Welt.

Wie gesagt, das Alles ist ein Ratespiel. Wer immer Projektionen in die Zukunft machte, musste feststellen, dass die Zukunft menschlicher Geschichte nicht allzu viel von Extrapolationen hält, egal ob sie linear, exponentiell oder hyperbolisch erfolgten. Sie hat eine Vorliebe für unvorhergesehene Ereignisse.

Sonntag, 20. Oktober 2013

Erinnerungen an Gerhard Krüger (1933-2013)

Gerhard Krüger war ein Hochschul-Informatiker der ersten Stunde und einer der einflussreichsten von ihnen. Seine Leistungen und seine Persönlichkeit verdienen große Anerkennung. Ich hatte fast 50 Jahre lang immer wieder Kontakt mit ihm. Er hat nicht nur zum Aufbau des Studiums in Karlsruhe wesentlich beigetragen, sondern in ganz Deutschland. Krüger war in Thüringen aufgewachsen und hatte in Jena und Berlin (an der Humboldt-Universität) studiert. Nach der Übersiedlung in den Westen promovierte er 1959 in Gießen in Physik.
 

Wie viele von uns ging Krüger beruflich den Weg von einem Anwendungsgebiet der Informatik zur Informatik selbst. Seit 1960 arbeitete er als Wissenschaftler am Kernforschungszentrum Karlsruhe. Dort oblag ihm das Thema Laborautomation. Das dauernde Messen von radioaktiven Abstrahlungen wollte er jedoch nicht zu seiner Lebensaufgabe machen. Zuerst schlug er den Einsatz einer Zuse Z22 vor. Da dies ein Röhrenrechner war, kam er im Dauerbetrieb nicht umhin, laufend Röhren auszutauschen. Deshalb überredete er seine Vorgesetzten, Ende 1962 aus dem Restbudget der Abteilung einen Transistor-Rechner CDC1600 für 360.000 DM zu kaufen. In der deutschen Kernforschung konnte man damals mit solchen Beträgen offensichtlich recht locker umgehen. Dieser Rechner wurde noch (fast) ganz ohne Software ausgeliefert. Der Nutzer entwickelte alles selbst. Erst später gab es ein Betriebssystem. Im Jahre 1970 erreichte er es, dass er die IBM 360 Model 91 am Max-Planck-Institut in Garching nutzen durfte. Es war dies damals der schnellste Rechner in Europa. Für den Zugriff richtete er die erste 48-kbaud-Leitung in Deutschland ein.

Von 1971 bis zu seiner Emeritierung im Jahre 2001 war er Informatik-Professor an der Universität Karlsruhe, heute Karlsruhe Institut für Technologie (KIT) genannt. Er gründete dort 1986 das Institut für Telematik. Ich kenne keinen deutschen Informatiker, der die Entwicklungen in unserem Fachgebiet derart gut bewerten und einordnen konnte. Oft gab er auch die entscheidenden Impulse und nahm Weichenstellungen vor, auf die andere erst viel später kamen.

Sein Wirken machte sich zuerst in Baden-Württemberg bemerkbar, später in ganz Westdeutschland. Wie kein anderer Kollege verstand er es, Kontakte zu Entscheidungsträgern in Politik, Verwaltung und Wirtschaft aufzubauen und zu pflegen. Wenn nötig, spielte er sie gegeneinander aus. Eine Folge unseres föderalen Systems ist ein Wettbewerb zwischen den Ländern Baden-Württemberg und Bayern. Da Baden-Württembergs Ministerpräsident Lothar Späth dafür empfänglich war, konnte er ihm 1982 in einer Wochenend-Sitzung im Schwarzwald (den so genannten Tonbacher Gesprächen) klarmachen, dass er mehr für die Sicherung der technischen Spitzenposition des deutschen Südwestens tun müsse. Das Ergebnis war das heute noch bestehende Forschungszentrum Informatik (FZI). Es arbeitet eng mit der Universität Karlsruhe zusammen und widmet sich der interdisziplinären und anwendungsorientierten Forschung sowie dem Transfer von Forschungsergebnissen in die Industrie rund um die Informatik und die Informationstechnik.

In der Zeit von 1984 bis 1988 trafen Krüger und ich uns regelmäßig bei den Veranstaltungen des Projekts HECTOR. Mit meinem Bereichsleiter Karl Ganzhorn zusammen gab es halbjährige Sitzungen mit Gerhard Krüger und andern Karlsruhern, um den Zielrahmen des Projektes zu definieren und den Fortgang der Aktivitäten in den Teilprojekten zu bewerten. Es handelte sich dabei um eine breit angelegte Kooperation zwischen der Universität Karlsruhe und der IBM Deutschland. Auf Seiten der IBM wurde die Projektarbeit vor allem vom Europäischen Netzwerkzentrum (ENC) in Heidelberg und dem Forschungslabor in Zürich geleistet. Von der Universität Karlsruhe beteiligten sich neben dem Rechenzentrum auch eine Reihe von Fachbereichen (mit den Professoren R. Dillmann, H. Grabowski, U. Kulisch, W. Stucky, u.a.).


Ich besitze heute noch die zweibändige Dokumentation der Projektergebnisse. Als Wirkung dieses Projekts wird der Durchbruch „kleiner“ Computer, also PCs, in der deutschen Wissenschaft und Lehre angesehen. Wie die beigefügte Skizze der für das Projekt HECTOR geschaffenen Rechner-Landschaft zeigt, war die Universität Karlsruhe immer mit mehreren Herstellern gleichzeitig im Geschäft. Krüger verstand es, die jeweils laufenden Projekte geschickt voneinander abzugrenzen und jedem Partner den Eindruck zu vermitteln, dass er wichtig sei. Seine Geldgeber, denen dies nicht verborgen blieb, mussten schon mal schlucken. Besonders hervorheben möchte ich, dass Krüger bemüht war, in Karlsruhe nicht nur der Kerninformatik zum Blühen zu verhelfen, sondern auch den Anwendungen. Andere Hochschulen haben dies nicht in dem Maße getan.

Von 1983 bis 1986 war Krüger zuerst Vizepräsident, dann Präsident der Gesellschaft für Informatik e.V. (GI). Er legte den Grundstein dafür, dass – wie ein Kollege es bezeichnete – aus einem „Kaninchenzüchterverein eine professionelle Fachgesellschaft“ wurde. Seine Nachfolger als GI-Präsident (Heinz Schwärtzel, Roland Vollmar, Wolfgang Glatthaar und andere) konnten diese Früchte ernten. 


Keine Initiative Krügers fand auf Bundesebene mehr Anerkennung als das von ihm angestoßene Computer-Investitionsprogramm, kurz CIP genannt. Es wurde vom Bund und den Ländern anteilig finanziert. Es führte zur Verbesserung der Rechnerausstattung an allen deutschen Hochschulen. Dem Ausdruck CIP-Pool begegnen noch viele Studierende heute. Es sind mit PCs (mit Internetzugang) ausgestattete Räume, die von Studierenden der Universität bzw. des jeweiligen Fachbereichs kostenlos genutzt werden können. Übrigens muss die Benutzung des Worts ‚Pool‘ für diese Einrichtung eine deutsche Spracherweiterung des Englischen sein. Wie Krüger mir erzählte, hatte er bei einem Vortrag am MIT in Boston Verständnisprobleme. ‚Sie stellen doch Ihre Rechner nicht in ein Schwimmbecken‘ – bemerkte ein Zuhörer. ‚I guess you mean cluster‘, ergänzte er dann.

Nach der deutschen Wiedervereinigung engagierte sich Krüger sehr stark in den Neuen Bundesländern und half dort bei der Restrukturierung der Hochschulen. Er war so etwas wie der Evangelist westdeutscher Bildungsphilosophie in den Neuen Bundesländern. Der Wissenschaftsrat veranlasste zuerst eine Evaluierung und Umorientierung der Akademie der Wissenschaften. Diese Einrichtung umfasste 16.000 Mitarbeiter. Das war so viel wie alle westdeutschen Forschungs-Einrichtungen zusammen besaßen. Danach kamen die Hochschulen dran. Krüger war beteiligt an der Evaluierung der Informatik an allen Standorten. Die Fachbereiche in Dresden und Rostock wurden als erste geklärt und als ‚Nachlaufforschung‘ eingestuft. Danach kam Jena dran. Es wurde erwogen, deren technischen Zweig der Informatik an die ehemalige Hochschule für Elektrotechnik in Ilmenau zu verlegen. Am Schluss wurden Chemnitz und Halle evaluiert. Da ich vor der Frühpensionierung stand, brachte mich Krüger gegenüber dem Rostocker Kollegen Karl Hantzschmann ins Gespräch, woraus dann für mich eine halbjährige Lehrstuhlvertretung im Wintersemester 1992/93 in Rostock entstand. Es wurde dies mein kleiner Beitrag zur deutschen Wiedervereinigung.

Seit 1995 war Krüger Mitglied der Deutschen Akademie der Naturforscher Leopoldina und seit 1996 Mitglied der Heidelberger Akademie der Wissenschaften. Er war außerdem Mitglied der acatech, der deutschen Akademie der Technikwissenschaften. Hier nahm er die Belange der Informatik wahr. Er besaß die Ehrendoktorwürde der Universitäten Lübeck, Jena, Rostock, der Humboldt-Universität Berlin sowie der TU Ilmenau. Seit 2007 war er Ehrenmitglied der GI.


Ich habe Krüger als sehr unterhaltenden Redner in Erinnerung. Nicht nur seine Zukunftsprojektionen riefen oft Stauen hervor. Genauso faszinierten seine zur Auflockerung eingeflochtenen Geschichten und Episoden aus der Vergangenheit. Ich hörte mir dieser Tage noch einmal die Aufzeichnung seines Vortrags von 2007 anlässlich der Verleihung der Ehrendoktorwürde in Ilmenau an. Das Thema hieß: ‚Vom optischen Telegrafen zum Internet der Dinge‘. Es war eine echte Krügersche Meisterleistung. Er ließ die technische Entwicklung von 1780 bis heute Revue passieren, streute aber laufend unterhaltsame Bonbons ein. Fast immer hatte er bei seinen Vorträgen seine Zuhörer auf seiner Seite. Er scheute es auch nicht, jemandem – wenn nötig – zu sagen, dass ihm seine Zeit zu schade sei, um ihm zuzuhören. Das bekamen auch einige Karlsruher Informatik-Studierende zu hören, die ihn in politische Diskussionen verwickeln wollten.

Eine Weisheit aus seinem Munde soll als Schlusswort dienen. Bekanntlich hat er etwa 30 Schüler zur erfolgreichen Promotion geführt. Zur Motivation, ohne die zwischenzeitliche Tiefpunkte beim Kandidaten nicht überwunden werden, würde er immer das Beispiel des Bergsteigens verwenden, sagte er mir. Jeder Berg erscheint hoch, wenn man unten steht, und der Weg zur Spitze lang. Ist man oben angekommen, erscheint der Aufstieg dagegen leicht und trivial.

NB: Die drei benutzten Fotos stammen übrigens alle von einer Veranstaltung anlässlich meines 75. Geburtstags. Mal ist Krüger mit Wolfgang Glatthaar, dem GI Präsidenten der Jahre 1995-1996, zu sehen, mal mit seiner Gattin, der Vize-Senioren-Weltmeisterin im Langstreckenlauf des Jahres 2010.

Sonntag, 13. Oktober 2013

Das Buch im Wandel der Technik

Letzte Woche war mal wieder Buchmesse in Frankfurt. Alle, die das Buch lieben oder von ihm leben, hatten eine große Familienfeier. Tagsüber stand man in den Ausstellungshallen, abends bei den Partys. Dass ich über die letzteren informiert wurde, verdanke ich einer befreundeten Journalistin. Ich war in früheren Jahren mehrere Male dort und kann mir das Treiben noch sehr gut vorstellen. Das wirklich Erstaunliche für mich ist, dass es die Buchmesse in dieser Form immer noch gibt. Ja, es gibt sie sogar zweimal, im Herbst in Frankfurt, im Frühjahr in Leipzig.

Um diese Zeit gibt es allerhand Vorträge und Artikel über Bücher, besonders im Fernsehen und Internet, aber auch in diversen andern Medien. Entweder wird nur gejammert, oder nur für die papierne Form des Buches geworben. Etwas aus dem Rahmen fiel ein aus Anlass der Buchmesse geführtes Interview in der FAZ am 7.10.2013. Der Gesprächspartner war Sascha Lobo. Seinen Kopf mit dem roten Irokesen-Haarbusch kennen auch Leute, die das Internet oder die Bloggerszene nicht verfolgen. Auf der Buchmesse warb er für sein neuestes Projekt. Es heißt Sobooks. Das sei eine Abkürzung für ‚Social Books‘. Im Interview geht es hauptsächlich um Sobooks. Das Ziel sei es, im Netz eine Plattform aufzubauen, 

die den Veränderungen der Buchwelt durch das Internet angepasst ist. Mit dem einen großen Ziel, das Buch als verkaufbares Kulturprodukt im Digitalen zu erhalten.

Dies ist also ein neuer Ansatz, der das Problem zu lösen versucht, wie Bücher das Internet überleben können. Da ich selbst seit über 20 Jahren fachlich und technisch mit dieser Problematik zu tun hatte, erlaube ich mir einige Kommentare. Zunächst möchte ich ganz dreist behaupten, dass jeder der das ‚Überleben von Büchern‘ als ein oder sein Problem ansieht, mir leid tut. Für mich ist das vergleichbar, als wenn jemand sich um das Überleben von Öllampen oder Pferdekutschen Sorge macht.

Lobo, der ja nicht aus dem Verlags- oder Bibliothekswesen stammt, versucht dort Gehör zu finden, indem er mit Platon argumentiert. Man sollte nicht versuchen, das Buch zu retten, sondern die ‚Idee Buch‘. Diese Idee könnte verschiedene Formen annehmen. Die Idee Buch bestünde nämlich darin, dass jemand einige zusammenhängende Gedanken zusammenhängend darstellt, und andern Leuten  ̶  zeit- oder ortsversetzt  ̶ , die Möglichkeit gibt, sich mit ihnen auseinanderzusetzen. Ein einzelner Fachartikel geht zwar auch in diese Richtung, ist aber weniger als ein Buch. Auch eine einzelne Kurzgeschichte, deren literarisches Genre durch die Verleihung des Literatur-Nobelpreises 2013 an die Kanadierin Alice Munro hervorgehoben wurde, ist noch kein Buch.

Dass sich einzelne Fachartikel oder Kurzgeschichten besser verteilen und besser verkaufen lassen, indem man sie bündelt, ist schon lange keine gute Idee mehr. Es war dies eigentlich nie. Zwar versuchen Verleger einzelne Fachartikel sündhaft teuer zu machen, wollte man sie elektronisch beziehen. Typischerweise sind es 30-40 Euro. Das entspricht etwa der Hälfte des Jahresabonnements, wenn man die Zeitschrift nicht als Teil einer Mitgliedschaft in einer Fachgesellschaft sehr billig bezieht. Deshalb hat sich ein riesiger Nebenmarkt entwickelt. Man verteilt Fachartikel von Institut zu Institut oder von Autor zu Autor unter Umgehung der Verlage. Monate später erscheinen sie dann mit Heft-Nummer und Seitennummer versehen in einer Fachzeitschrift. Sie seien erst dann ordnungsgemäß archivierbar  ̶  was immer das heißt.

Zurück zu Büchern. Ich selbst habe in den letzten zwölf Monaten 44 Bücher mehr oder weniger vollständig gelesen. Natürlich ist dies nur möglich, da ich Rentner bin. Darunter waren lediglich noch zwei Papierbücher. Eines wurde mir geschenkt, eines hatte mir ein Freund geliehen. Insgesamt 24 Bücher (so genannte eBooks) las ich als Teil meines Abos bei Skoobe, das ich seit einem Jahr besitze. Weitere 10 Bücher habe ich einzeln bezahlt, acht waren kostenlos. Bei letzteren handelte es sich um Klassiker, von Platon über Kant zu Franz Kafka. Ich kaufe fast alle Bücher, für die ich einzeln bezahlen muss, bei iBook. Ich benutze deshalb iBook, weil dann alle Belastungen auf mein Konto bei Apple laufen. Ich habe dieses Konto schon seit mehreren Jahren, weil ich darüber auch Musik und Programme (so genannte Apps) kaufe. Mit der finanziellen Seite (Höhe der Preise, Abrechnungsverfahren) habe ich nicht die geringsten Probleme. Ich bin der Meinung, dass sich diese Seite des Geschäfts stabilisiert hat und erwarte keine großen Durchbrüche mehr.

Hinzufügen möchte ich noch, dass ich alle erwähnten eBooks auf einem iPad lese. Auf demselben Gerät habe ich außerdem etwa 20-30 Fernsehfilme gesehen. Die meisten davon stammten von Arte. Dies ist der Grund, warum Nur-Buchlese-Geräte wie Kindle für mich nicht in Frage kommen. Den wöchentlichen SPIEGEL, die FAZ, die New York Times oder die Filme über die Enkelkinder möchte ich nur am Rande erwähnen.

Nicht so zufrieden bin ich mit der Art, wie ich von den Anbietern von eBooks mit Gewalt zum rein passiven Lesen verdonnert werde. Genau hier setzt auch die Kritik von Sascha Lobo ein. Mich ärgert es primär, dass ich keine Möglichkeit besitze, Zitate direkt aus dem eBook zu kopieren. Da ich viele Bücher, die ich lese, anschließend in diesem Blog bespreche, vergesse ich daher manchmal die wichtigsten Zitate. Alles Material für die Besprechung sammele ich während des Lesens als Notizen auf meinem iPhone (in Evernote). Wenn ich Zitate besonders schön oder wichtig finde, tippe ich sie (nach der Adlermethode) in mein iPhone. (Für jemanden, der den Ausdruck nicht kennt, sei dies erläutert: Wie ein Adler kreist mein Zeigefinger um einen Buchstaben auf der virtuellen Tastatur, ehe er herabstürzt).

In meinen Augen möchte Lobo nichts anderes, als was einige Kollegen und ich zwischen 1993 und 1996 in einem von der Bundesregierung geförderten Projekt bereits anstrebten. Wir hatten damals diverse Ideen, wozu man das Material verwenden könnte, das in einem Online-Buch (der Begriff eBook setzt sich erst später durch) in maschinen-lesbarer Form vorhanden ist. Wir dachten zunächst primär an die Wiederverwendung in der akademischen Lehre. Wir hatten 14 deutsche Verlage in das Projekt eingebunden und baten sie, darüber nachzudenken, wie die entsprechenden Geschäftsmodelle aussehen könnten. Das Ergebnis war: Das Material muss möglichst genau so aussehen, wie in einem papieren Buch. Es darf nicht zerfleddert, noch verändert werden. Auch die Seitenzahlen müssen genau dieselben bleiben. Der Preis darf höchstens 10 % niedriger sein. Lobo schlägt heute (2013) unter anderem vor, dass man zulassen sollte, dass ein Leser seine Kommentare mit dem Text des eBooks verlinken darf. Das Buch würde dadurch für den einzelnen Leser an Wert gewinnen. Dem Autor könnte man die Kommentare zur Kenntnis geben oder zur Verfügung stellen, wenn er dies wollte. Man könnte vereinbaren, dass er sie in einer Neuauflage verwenden darf, usw.

Nach Lobo sollte ein Buch ein Beitrag zu einem anhaltenden Dialog des Autors mit den Lesern sein, kein Monolog. Platon, und insbesondere sein Lehrmeister Sokrates, der sich sogar weigerte seine Reden aufzuschreiben, hätten dies bestimmt vehement gefordert, wären vor 2000 Jahren die technischen Möglichkeiten vorhanden gewesen, die wir heute haben. Um zu illustrieren, wie langsam sich Denkmuster verändern, will ich einen Satz aus dem Interview herausgreifen. Der Journalist der FAZ machte Lobo den ernsthaften Vorwurf, dass er die Bezeichnung ‚books‘ für sein Konstrukt verwendet:

Wenn Sie Webseiten verkaufen wollen, brauchen Sie die doch nicht Bücher zu nennen.

Dies erinnert mich an einen Vorwurf, den ich bekam, als ich im Jahre 2000 mit einem Ko-Autor zusammen ein Buch mit dem Titel ‚Digitale Bibliotheken‘ herausbrachte. „Sie sollten Ihr Buch Informationssysteme oder sonst etwas (abschreckend) Technisches nennen, aber nicht Bibliotheken.“ Wie gefährlich Analogien sind, musste ich übrigens selbst erfahren, als ich das Buch in einer Stuttgarter Buchhandlung suchte. Man hatte es in der Sektion Architektur eingebucht und ausgestellt.

Ein paar kritische Gedanken meinerseits. Ich bin der Meinung, dass von gewissen Branchenvertretern, seien es Verleger oder Bibliothekare, unsere Jugend in unverantwortlicher Weise in die Irre geleitet wird. Es wird ihr suggeriert, dass nur das papierne Buch unsere Kultur retten kann. Dabei ist Papier ein Stoff, dessen Herstellung und Entsorgung die Umwelt belastet. Papierne Bücher belegen wertvollen Wohn- oder Lagerraum, sie erfordern hohe Transportkosten, um sie vom Drucker zum Buchhändler und vom Buchhändler zum Leser zu bringen. Die Auswahl ist immer beschränkt oder oft vergriffen. Die Haltbarkeit ist vom Verfahren der Papierherstellung abhängig, sowie vom Brandschutz des Bibliotheksgebäudes, usw.

Genauso wie Sascha Lobo halte ich es für falsch, in den Kategorien von Entweder und Oder zu denken. Hin und wieder werde ich ein papiernes Buch lesen, häufiger ein eBook, vielleicht auch einmal ein SoBook. Wenn ich bedenke, wie lange eBooks benötigten, bis sie zu einem für mich akzeptablen wirtschaftlichen Angebot wurden, glaube ich nicht, dass ich SoBooks noch erleben werde. Immerhin enthält mein Skoobe-Abo inzwischen etwa 30.000 Titel. Sie verteilen sich auf die Kategorien Belletristik (20.000), Sachbuch und Ratgeber (je 4.000)  und Jugendbücher (2.000). Bei iBook sind es bestimmt nicht weniger. Vor allem finde ich da auch nicht-deutsche Texte und Fachbücher. Ich habe das Gefühl, dass ich noch eine Weile versorgt bin.

Freitag, 11. Oktober 2013

Über die Ergebnisse der Bundestagswahl 2013

Inzwischen ist die Bundestagswahl vom 22. September schon fast Geschichte. Durch eine Reise und andere aktuelle Themen wurde ich davon abgelenkt, in diesem Blog das Ergebnis zu kommentieren. Da mein Freund Peter Hiemann mir gerade seine Analyse schickte, kann ich den interessierten Leser auf diese verweisen. Hiemanns Ausführungen sind sehr lesenswert und decken sich in vieler Hinsicht mit meiner Sicht. Ich möchte im Folgenden lediglich einige Punkte nachtragen, die ich für erwähnenswert halte.

Bereits bei der kurz vorher stattgefundenen Landtagswahl in Bayern war ein starker Trend in Richtung CDU/CSU abzusehen. Wie stark er bei der Bundestagswahl ausfiel, wird deutlich, wenn man das Ergebnis bei den 299 Direktkandidaten ansieht. Hätten wir ein Mehrheitswahlrecht wie Großbritannien, wäre das Ergebnis nach Zahl der Sitze wie folgt gewesen: CDU/CSU 239 (80 %), SPD 55 (18 %), Linke 4 (1,3 %) und Grüne 1 (0,3 %). In sieben von 16 Bundesländern gewann die CDU/CSU alle Direktmandate. Aufgrund des Verhältniswahlrechts und der komplizierten Berechnung der Ausgleichsmandate hat die CDU/CSU die Mehrheit der 631 Sitze knapp verfehlt.

Die SPD hat einen Teil ihrer Wähler aus der Schröder-Zeit zurückgewonnen. Diese kommen aus hessischen und norddeutschen Stadtgebieten. Der Anteil der Wähler aus Arbeiter-Milieus fällt ohnehin stetig. Die FDP kam unter die Räder. Ihre Wähler gingen zurück zur CDU, wo sie unter Westerwelle herkamen, oder sie verteilten sich auf AfD, Grüne und Piraten.

Die Grünen überlebten als große Verlierer. Nach Umfragen lagen sie gegen Mitte der Wahlperiode um 15%. Ihr Abstieg ist primär darauf zurückzuführen, dass sie ihre ureigenen Themen (Umweltschutz, Atomausstieg) verloren hatten. Bei der Betonung sozialer Themen kamen sie mit der SPD ins Gehege. Dass sie auch noch in die Ernährungsgewohnheiten der Bevölkerung mittels gesetzlicher Vorschriften (Veggie Day) eingreifen wollten, verstärkte ihr Image der Besserwisserei. Da der Spitzenkandidat Trittin kurz vor der Wahl von seiner Vergangenheit eingeholt wurde, erhöhte das nicht das Vertrauen in die Berliner Mannschaft.

Dass „Die Linke“ langsam erodiert, wundert überhaupt nicht. Immerhin wird es bald 25 Jahre nach der Wiedervereinigung immer schwieriger, sich als armer, benachteiligter Ossie zu profilieren. Die Person Gysi hält ein minimales Interesse am ostdeutschem Flair am Leben. Dass die Piraten nur noch auf 2,8 % der Stimmen kamen, ist auf das chaotische Bild zurückzuführen, welches diese Partei seit ihrem Höhenflug (8% im Berliner Senat) abgab.

Die wahre Überraschung der Wahl bildete der Wirtschaftsprofessor Lucke mit seiner AfD. Bekanntlich waren es Wirtschaftsprofessoren, die zweimal wegen des Euro vor das Verfassungsgericht gezogen waren. Obwohl sie beide Male verloren haben, besitzen sie die Sympathie weiter Kreise der Bevölkerung. Fast reichen die Leser von Hans-Olaf Henkels letzten beiden Büchern für die Hälfte der Wählerstimmen aus. Dass es 4,7% wurden, zeigt wie groß die Angst vor den Verlust der Ersparnisse ist. Leider verkündete die AfD nur ein ‚So nicht!‘. Von einer wirklichen Alternative hätte ich mehr erwartet.

Immer wieder wurde der Kanzlerin im Wahlkampf vorgeworfen, sie erkläre ihre Politik nicht. In journalistischer Überspitzung wurde daraus, dass sie einen unpolitischen Wahlkampf führe. Manch ein Herausforderer glaubte dann, sich als Revolutionär darstellen zu müssen, der keinen Stein auf dem andern lässt. Das ist, wie sich herausstellte, eine zweischneidige Sache. Entweder erweckt dies beim Wähler Zweifel an der Ehrlichkeit oder an der Solidität. Der Amtsinhaber jedoch tut sich keinen Gefallen, wenn er einen Neuanfang verspricht. Das wäre ein Eingeständnis, dass die bisherige Politik ein Fehler war. Natürlich kann man nicht genug tun, um seine Politik immer wieder zu erklären. Wenn man damit erst am Ende einer Wahlperiode beginnt, ist dies reichlich spät.

Es gab Zeiten, als derjenige, der größere Politikbereiche neugestalten wollte, sich als Reformer bezeichnete. Dieser Begriff ist in Misskredit geraten. Zu oft führten handwerkliche Fehler oder Interessenkonflikte zu nicht befriedigenden Lösungen. Diejenigen Politiker, die Reformen früh in ihrer Regierungszeit durchführten, bekamen manchmal die Chance, sie zu korrigieren. Je komplexer wirtschaftliche oder gesellschaftliche Verhältnisse sind, umso riskanter sind Veränderungen. Da nicht alle Politiker im Ruf stehen, sich im Meistern von komplexen Aufgaben bewährt zu haben, tendieren Wähler gerne in Richtung Status quo. Vermutlich profitierte Angela Merkel von diesem Trend.

Ich gehe davon aus, dass die nächste Bundesregierung einige Konsequenzen aus dem Wahlergebnis ziehen wird. Die Frage ist nur welche. Noch ist dies ein Geheimnis von Frau Merkel. Hätte die Union die absolute Mehrheit der Sitze errungen, könnten wir vielleicht schon einige Anzeichen erkennen, in welche Richtung die Reise geht. Wegen des erforderlichen Koalitionspokers müssen alle Beteiligten sich noch bedeckt halten. Entscheidend wird sein, welches Thema die SPD als Siegestrophäe ausguckt. Von den Steuererhöhungen, rein als Mittel des Sozialausgleichs, ist sie bereits abgerückt. Wenn die Union ihr sagen würde, wofür sie wie viel Geld ausgeben will, könnte es sein, dass die SPD das mitträgt. Aufs Geldausgeben können sich Politiker bekanntlich leichter einigen als aufs Sparen.

Dass man sich nicht einigt, und dass die Grünen zum Lückenfüller aufrücken müssten, das halte ich für unwahrscheinlich. Es ist nicht auszuschließen, dass der Stuttgarter Oberrealo Winfried Kretschmann versuchen wird, die SPD in puncto Forderungen zu unterbieten. Allerdings müsste er dann auch bereit sein, am Kabinettstisch in Berlin persönlich Platz zu nehmen, um seiner Partei die Regierungsfähigkeit zu verleihen. Das wird er aber aller Voraussicht nach nicht tun.

Mittwoch, 9. Oktober 2013

Twitter – wieder ein Börsengang mit Fragezeichen

Der Mikroblogger Twitter hat der amerikanischen Börsenaufsicht (Security Exchange Commission, SEC) Unterlagen zur Verfügung gestellt, die auf einen bevorstehenden Börsengang (engl. initial public offering, IPO) schließen lassen. Damit stellt sich die Frage nach dem Geschäftsmodell. Twitter wurde im Jahre 2006 gegründet und hatte Ende 2012 über 200 Millionen Nutzer seines kostenlosen Dienstes. Die Tendenz ist steigend.

Bei Social-Media-Unternehmen wie Facebook und Twitter glaubt man, dass wachsende Nutzerzahlen bereits einen Wert darstellen. Umsätze und  ̶  erst recht  ̶  Gewinne seien sekundär. Twitter machte in 2012 einen Umsatz von über 300 Millionen Dollar bei einen Verlust von 80 Millionen Dollar. In diesem Jahr steigt der Umsatz weiter und erreichte im ersten Halbjahr bereits 250 Millionen Dollar. Dennoch ist der Börsengang alles andere als risikolos. Die Erfahrung mit Facebook wirkt ernüchternd, wenn nicht sogar abschreckend. Als Facebook denselben Schritt wagte, äußerte ich ernsthafte Zweifel. Seither ist ein Jahr vergangen. Der Aktienkurs fiel sofort nach dem Börsengang, erreichte diverse Tiefpunkte und schließlich wieder den Ausgabekurs von 38 US $. Dividenden wurden noch keine gezahlt.

Es steht außer Zweifel, dass Twitter bekannt ist und eine Funktion erfüllt. Als prominente Nutzer gelten US-Präsident Barack Obama und Papst Franziskus. Als ein Passagierflugzeug auf dem Hudson notwasserte, berichtete dies einer der Passagiere an Bord per Twitter. Kein Journalist war weit und breit. Ein weniger nachahmenswertes Beispiel wird von der vorletzten Wahl des Bundespräsidenten berichtet. Eine CDU-Abgeordnete verkündete den Sieger über Twitter, ehe es der Wahlleiter tat. Ich selbst nutze Twitter, um an Pressemitteilungen der NASA, des Sprechers der deutschen Bundesregierung und des Heise-Verlags zu gelangen, und an Mitteilungen von Bill Clinton und Bill Gates.

Die Beschränkung der Nachrichtenlänge (140 Zeichen) macht es leicht, sie nebenher zu lesen und im Bekanntenkreis weiterzuleiten. Aber populär und sexy sein, ist nicht Alles. Die NZZ vom 8.10.2013 schreibt dazu:

Bei solchen IPO geht oft vergessen, dass Investoren an der Börse sind, um Geld zu verdienen, nicht um «cool» oder «trendy» zu sein.

Das derzeitige Geschäftsgehabe der beiden genannten (und einiger ähnlicher) Firmen lässt sich mit einem Beispiel aus einem anderen Wirtschaftszweig sehr gut illustrieren. Man stelle sich vor, in München gäbe es eine Brauerei, die beschließt ihren Ausstoß zu erhöhen, indem sie Bier kostenlos ausliefert. Sie würde es ohne weiteres schaffen, alle andern Brauereien Bayerns aus dem Markt zu verdrängen. Alle Gaststätten und Lebensmittelläden des Landes würden diesem Lieferanten ihre Keller und Regale zur Verfügung stellen. Der durch Freibier zum Marktbeherrscher aufgestiegene Lieferant hätte sogar Chancen im Markt zu überleben, finge er später an für seine Flaschen und Fässer (das Gebinde) Geld zu verlangen. Man könnte diese  z.B. als Werbeträger benutzen, indem man Bilder von Autos, Rennrädern, Fußballstiefeln, Wanderschuhen, Lederhosen, Dirndl, und dgl. darauf klebt.

Sowohl bei Facebook wie bei Twitter ist die Situation etwas anders. Für ihre Inhalte oder deren Gebinde, also die Datenträger, Geld zu nehmen, wird nicht so leicht möglich sein. Es fällt den meisten Menschen leichter, sich den Konsum von Kurznachrichten oder von Familienklatsch abzugewöhnen als den Konsum von Bier. Besonders in Süddeutschland ist diese Erwartung berechtigt. Auch eventuelle  Konkurrenzangebote könnten jederzeit per Internet schnell vor Ort sein.

Seit dem Erfolg von Google glaubt man im Verkauf von Werbeplatz eine totsicher sprudelnde Einnahmequelle zu haben. Facebook und Twitter haben allerdings nur eine Chance im Werbungsgeschäft zu reüssieren, wenn sie personenbezogene Daten auswerten. Am besten wäre es, sie würden den Inhalt der Konversation ihrer Nutzer verstehen. Das eine ist sehr heikel, das andere sehr schwierig. Skylla und Charybdis hießen in der Antike zwei Meeresungeheuer in der Straße von Messina. Denen zu entkommen, war schwierig. Im übertragenen Sinne bezeichnen sie noch heute zwei Übel, zwischen denen man gefangen ist.

Es wird immer wieder vergessen, dass der Erfolg von Google auf einer sehr anspruchsvollen technischen Lösung basiert, die patentrechtlich geschützt ist. Google hat die Straße von Messina erfolgreich umfahren. Google braucht weder persönliche Daten noch muss es die Inhalte der Nachrichten verstehen. Es leitet aus der Art und der Struktur der Kommunikationsverbindungen eine verlässliche Bewertung der Knoten ab. Der entsprechende Algorithmus (Page Ranking) benötigt zwar sehr viel Rechenkapazität, liefert aber gute Ergebnisse. Schließlich ist das Suchen im Netz eine Anwendung, die für die Produktwerbung ideal ist. Wer mit Hilfe von Google nach Flugreisen, Gebrauchtwagen, Bohrmaschinen, Mobiltelefonen, usw. sucht,  ist meistens gerade dabei, sich die für einen Kauf erforderliche Marktübersicht zu verschaffen. Auch das lässt sich weder von Facebook noch von Twitter sagen.

Das Suchen nach einem Geschäftsmodell beschäftigt Twitter schon seit der Gründung vor sieben Jahren. Auch bei Facebook und Youtube ist die Situation ganz ähnlich. Es ist nicht zu erkennen, welches Geschäftsmodell es sein wird, das den Erfolg bringen kann. Ich kann und will daher meine Skepsis bezüglich des langfristigen Geschäftserfolgs nicht verhehlen. Von Facebook lernte man immerhin, dass man ohne eigene Entwicklerkapazität sehr schlecht dran ist und baute ein Team von etwa 300 Leuten auf. So ist man wenigstens in der Lage, selbst die technische Qualität und die Anpassungsfähigkeit seines Dienstes zu sichern.

Sollte das Twitter-IPO positiv aufgenommen werden, wäre dies ein Warnsignal für den gesamten Markt. So sieht es ein Marktbeobachter. Es sei als ein Zeichen von Überhitzung zu bewerten.

Sonntag, 6. Oktober 2013

Über die Relevanz von Daten und Prozessen in der Big-Data-Diskussion

In den Kommentaren zu dem Interview mit Hasso Plattner spielte – etwas zu meiner Überraschung  ̶  die Frage eine Rolle, ob wir statt ‚daten-getrieben‘ nicht lieber ‚prozess-getrieben‘ denken sollten. Das veranlasste mich, etwas über dieses Thema nachzudenken. Meine eigene Distanz zu heutigen Systemarchitekturen und Kundenerfordernissen verleitet mich dazu, eher grundsätzlich als technisch konkret zu argumentieren. Wie immer, sind Kommentare erwünscht. Ich behalte mir vor, spätere Ergänzungen oder Klarstellungen zu bringen.

Einige relevante Begriffe

Leider komme ich nicht umhin, mit meiner Version einiger Grundbegriffe zu beginnen. Ich will dabei kurz einige Begriffe in die Erinnerung rufen, die in der Informatik eine zentrale Rolle spielen. Dabei wird teilweise eine etwas erweiterte oder einschränkende Definition verwandt als allgemein üblich.

Daten sehe ich primär als Instanzen von Eingabewerten (Parametern) oder Ergebnissen von Prozessen. Große Mengen davon kennen wir aus Astronomie, Meteorologie, Ökonomie, Ökologie, Medizin und Soziologie. In zunehmendem Maße sind sie maschinell erfassbar. Andere Daten dienen der Beschreibung und Darstellung von Objekten und Strukturen. Beispiele sind Bilder, Zeichnungen und Töne. Ein Schema beschreibt eine Klasse oder einen Typ von Daten. Kennt man den Typ gut genug, kann man Instanzen mechanisch erzeugen oder generieren. Daten können eine inhärente Bedeutung (Semantik) haben, die sich aus der Physik oder der Natur der sie erzeugenden Prozesse ergibt. In praktischer Hinsicht ist Semantik alles das, was ein Programm mit den Daten tut. Erst ab dieser Stelle käme auch der Informationsbegriff vor, mit dem dieser Blog sich wiederholt befasste. (Diese Diskussion soll hier nicht vertieft oder wiederholt werden)

Ein Programm ist ein Plan für den Ablauf einer Veranstaltung oder eines Prozesses. Im engeren Sinne denken wir hier an Computerprogramme. Ein Prozess ist die Instanziierung oder die Inkarnation eines Programms. Ein Programm ist in gewisser Hinsicht die Abstraktion der gemeinsamen Logik einiger Prozesse. Dasselbe (Computer-) Programm kann hintereinander oder gleichzeitig (fast) beliebig viele Prozesse auslösen und steuern. In den nicht verstandenen Teilen der Natur oder der Wirtschaft gibt es Prozesse, die  ̶   so scheint es  ̶  ohne Programm ablaufen. Anders ausgedrückt, man kennt deren Programm nicht.

Relevanz ist die Wichtigkeit oder der Stellenwert eines Begriffes oder eines Objekts innerhalb einer Klasse von Begriffen oder Objekten. Sie drückt eine Halbordnung aus, bezogen auf ein Kriterium. Zwei unterschiedliche Elemente einer Klasse können eine unterschiedliche (höhere, niedrigere) oder die gleiche Relevanz besitzen. Das Adjektiv ‚relevant‘ habe sich bei uns unter dem Einfluss des Englischen entwickelt, meinen die Autoren des Wikipedia-Eintrags. Das Antonym heißt ‚irrelevant‘. Wird die Relevanz quantifiziert, sind Begriffe wie Wert und Bewertung passender.

Universum der Daten

Die Zahl der durch Informatik nutzbaren Datenelemente, also der Instanziierungen, hat die eindeutige Tendenz in astronomische Größenordnungen zu wachsen. Wir sprechen dann von Peta- (10 hoch 15) und Exabytes (10 hoch 18). Das explosionsartige Anwachsen geschieht nicht nur, weil unser Wissen immer weiter ins Weltall vordringt. Daten vervielfältigen sich auch, weil wir immer genauer hinsehen. Wir dringen in subatomare Bereiche vor. Eine weitere Dimension ist die Zeit. Je älter die Welt wird, desto mehr Daten hinterlässt sie. Schließlich erhöhen wir den Differenzierungsgrad. Wo einmal drei Abstufungen oder Dimensionen ausreichten, fügen wir immer neue Aspekte hinzu. An die Stelle von 16 treten 256 Farbnuancen. Früher bot die Kapazität unserer Geräte keine Veranlassung sich mit sehr großen Datenmengen auseinanderzusetzen. Heute treten gerätetechnische Limitierungen zunehmend in den Hintergrund.

Weniger stark als die Zahl der Datenelemente wächst die Zahl der verschiedenen Datentypen. Es ist sogar anzunehmen, dass eine Grenze sich nicht nur aus den Gesetzen der Natur ergibt, sondern auch aus der Unterscheidungsfähigkeit der Menschen. Anders ausgedrückt, wen interessieren Variationen von Datentypen, die Menschen nicht sehen, erfassen und maschinell speichern können.

Bei Daten denken viele noch an formatierte Daten. Ihre Rolle ist heute eher ein Sonderfall gegenüber den Myriaden von unformatierten Daten. Diese können sich als Texte, Bilder, Videos, Gespräche, Musik oder Lärm präsentieren. Sie können lokal an einem Ort entstehen und verwandt werden oder über das Weltall verteilt sein.

Universum der Prozesse

Die Annahme, die ich machen möchte, lautet: Es kann nur da Prozesse geben, wo Interaktion stattfindet. Die meisten physikalischen Interaktionen benötigen eine gewisse Nachbarschaft, wenn wir einmal von der Quantenverschränkung absehen. Dasselbe gilt für die Biologie, Ökonomie und Technik. Interessant ist nicht die Zahl der Prozesse, sondern die Zahl der unterschiedlichen Prozesse. Prozesse betrachte ich nur dann als unterschiedlich, wenn sie bei gleicher Eingabe-Sequenz unterschiedliche Verhaltensweisen oder unterschiedliche Ergebnisse aufweisen. Vereinfacht ausgedrückt, entspricht die Zahl unterschiedlicher Prozesse der Zahl unterschiedlicher Programme. Diese dürfte um Größenordnungen kleiner sein als die Zahl der Prozesse insgesamt.

Hier kommt nämlich wieder eine natürliche Limitierung ins Spiel, nämlich die Zahl und Leistungskraft aller Programmierer. Dabei muss man nicht nur an menschliche Programmierer denken. Auch in der Natur sind nicht alle Organismen in der Lage, sich planerisch oder kreativ formend zu betätigen.

Prozesse können in Millisekunden ablaufen oder Jahrzehnte in Anspruch nehmen. Sie können aus weniger als zehn Schritten bestehen oder deren einige Tausend umfassen. Eine besondere Form von Prozessen bilden die Transaktionen. Sie stellen gewisse in sich abgeschlossene Vorgänge dar. In der Informatik werden sie (fälschlicherweise) als Teil der Datenbanktechnik gelehrt. Sie können sich ebenso gut auf einfache Dateien beziehen. Außerdem ist es sinnvoll zu unterscheiden zwischen Daten und Prozessen, die von uns bekannten Agenten (Individuen oder Gruppen) erzeugt wurden, und solchen, die wir in Natur und Gesellschaft vorfinden, deren Erzeuger uns jedoch unbekannt ist.

Relevanz und Wert

Bei der Definition von Relevanz hatte ich hinzugefügt, dass es eines Kriteriums bedarf, um Relevanz zu bewerten. Man kommt nämlich zu ganz unterschiedlichen Ergebnissen je nachdem, ob man an ökonomisches Potential, Absicherung der wirtschaftlichen Existenz, wissenschaftliche Attraktivität, Anforderungen der Ästhetik, oder Formalisierbarkeit in einer vorgegebenen logischen Notation, oder dgl. denkt. Die Zahl unterschiedlicher, von Menschen angewandter Kriterien ist sehr hoch. Sehen wir uns unterschiedliche Relevanzkriterien an, können sich die Prioritäten verschieben. Nur ein paar Beispiele sollen dies erklären.

Im Geschäftsleben fallen Entscheidungen meist basierend auf Daten, nicht auf Prozessen. Die Intensität der Nachfrage oder die Höhe des Bestandes bestimmen, ob die Produktion hochgefahren wird. Die Produktionskosten entscheiden mit darüber, ob ein wettbewerbsfähiger Preis entsteht, usw. Die Vertriebs- und Produktionsprozesse beeinflussen, welche Interessenten man erreicht und wie schnell man liefern kann. Je nach Art eines Produkts oder eines Dienstes können 1000 Aufträge einen Erfolg darstellen, aber nur 100 ein Fiasko.

Geht es darum historisch interessante Dokumente und Belege zu sichern, haben die Daten einen hohen Wert. Die auf sie anwendbaren Prozesse sind sekundär. Die Massen von Klima-Daten der Vergangenheit haben so lange einen geringen Wert, bis wir Modelle, also Programme haben, um aus ihnen auf das Klima der Zukunft zu schließen. Manchmal erschließt sich die Relevanz gewisser Daten erst, wenn andere Daten aufgetaucht sind. In der Medizin lässt das Vorhandensein eines Symptoms auch andere relevant werden. Es bestehen Korrelationen.

In der Wissenschaft kann das Vorhandensein einer Theorie dazu führen, dass plötzlich bisher als irrelevant angesehene Daten größtes Interesse verdienen. Ein Beispiel ist eine bestimmte astronomische Beobachtung (das Michelson-Morley-Experiment), die Einsteins Relativitätstheorie bestätigte. Ein sehr irdisches Beispiel ist eine Besonderheit im Konsumverhalten, welche die Firma Walmart in den Südstaaten der USA registrierte. Sie stellte aufgrund der Analyse ihrer historischen Daten fest, dass nach einer Hurrikan-Warnung nicht nur die Nachfrage nach Äxten, Brettern und Trinkwasser nach oben schnellte, sondern auch die Nachfrage nach Dosenbier und Heidelbeerkuchen.

Es ist nicht zu übersehen, dass Hochschullehrer eher von Prozessen als von Daten fasziniert sind. In den Ingenieurwissenschaften und den konstruktiven Wirtschaftswissenschaften stehen oft Methoden im Vordergrund. Manche Lehrstühle sind dem Aufdecken schneller Algorithmen oder effektiver Messverfahren gewidmet. In diesen Fällen dienen Daten lediglich der Illustration. Wenige Beispiele reichen aus, um einen Machbarkeitsbeweis zu erbringen. Anders ist es bei Statistikern und Zahlentheoretikern.
 
Spiel der Kräfte

Dem Beispiel von Manfred Eigen folgend, kann man die Bestimmung von Relevanz und Wert auch als ein Spiel von Kräften auffassen. Das fundamentale Gesetz, das die Beziehung von Angebot und Nachfrage beschreibt, spielt hier hinein, ist aber nicht ausreichend. Um den Themenbereich zu illustrieren, will ich vorwiegend Beispiele aus der Welt der Software benutzen.

Bis etwa 1970 maß man Software überhaupt nur einen Wert zu, wenn sie half Hardware zu verkaufen. Auch heute dient sie noch (oder wieder) dazu, ein anderes Gut zu unterstützen oder für andere Geschäfte die Voraussetzungen zu schaffen. Das bekannteste Bespiel ist die Firma Google, die Software aller Art verschenkt, um Werbeumsätze zu machen. Da wo Software als solche mit Wert (und eigener Relevanz) versehen wird, hat sich der Markt sehr unterschiedlich entwickelt. Die Teile des Marktes, die eine relativ robuste Struktur aufweisen, haben eher mit der Erfassung, Speicherung und Manipulation von Daten zu tun, als mit der Unterstützung von Prozessen. Zur ersten Gruppe gehören Dateiverwaltung, Datenbanksysteme und Metrik-Tools. Zur zweiten Gruppe gehören Entwicklungs- und Prozess-Modellierungs-Werkzeuge. Ein wesentlicher Grund für diesen Unterschied scheint darin zu liegen, dass Datenmanipulation für Unternehmen essentiell ist, Prozess-Verbesserung jedoch nicht. Auch wurden viele Software-Werkzeuge zunächst für die Eigennutzung entwickelt, und erst im Nachhinein quasi beiläufig dem Markt zur Verfügung gestellt. Dass Suchmaschinen und Browser kein eigenes Geschäft darstellen, hat historische Gründe.

Generell ist der Markt das Ergebnis einer historischen Entwicklung. Der Erstanbieter eines neuen Software-Typs hat sehr viel Einfluss auf den gefühlten Wert dieses Produkts sowie seine Nutzungsregeln. Ein später in den Markt eintretender Anbieter muss die vorhandenen Bedingungen zur Kenntnis nehmen. Nur sehr selten gelingt es ihm, diese signifikant zu ändern. Im Endeffekt kann man keine (Markt-) Situation vollständig beurteilen, ohne nicht auch das Spiel der Kräfte zu beachten, die am Werke sind. Je nach vorliegender Konstellation kann dies zu Ergebnissen führen, für die man sonst nur das Prädikat überraschend oder sogar unerklärlich verwenden müsste.

Zusammenfassung

Die Frage, ob Daten oder Prozesse wichtiger sind, sollte man vernünftigerweise umformulieren. Die Frage wird etwas leichter zu beantworten, wenn wir sie auf Schemata (Typ-Beschreibungen) und Programme beziehen. Die (vorläufige) Antwort kann nur lauten: Im Allgemeinen sind beide gleich wichtig.

Programme machen keinen Sinn, wenn sie keine Daten verarbeiten. Man kann keine Daten verarbeiten, ohne deren Schemata zu kennen (von gewissen elementaren, selbstbeschreibenden Daten abgesehen). Aus praktischer Sicht werden Menschen nie in der Lage sein, für alle vorhandenen Daten Schemata und für alle denkbaren Anwendungen Programme zu entwickeln. Auch das semantische Web löst diese Probleme nicht. Dennoch ist die Versuchung groß, auch solche Daten analysieren zu wollen, für die wir (noch) keine Programme oder Schemata haben. Mich verwundert es daher nicht, dass dem Big Data Hype ein gewisser Grad von Hybris zu schaffen macht. In der Antike rief diese Form der Vermessenheit die Götter dazu auf einzuschreiten.