Samstag, 24. November 2012

Billionen-Poker: Kommentar und Buchbesprechung

Dankenswerterweise hat Hartmut Wedekind das vom SPIEGEL gepriesene Buch der Autoren Fichtner und Schnidden mit dem Titel Billionenpoker kommentiert.

Dass er die Beziehungen eines Datenbankers zur Welt der Banker thematisiert, aber auch mit Shakespeare-Zitaten seinem Gefühl Ausdruck verleiht, habe ich bei dem Rezensenten nicht anders erwartet.

Lesen Sie hier, was er von dem Buch hält.


Am 29.11.2012 schrieb Hartmut Wedekind aus Darmstadt:

Zu meinem Beitrag „ MillionenPoker“ bin ich gefragt worden, was denn nun Spekulation eigentlich sei? Ein Spekulant ist ein Hasardeur oder ein Zocker sagt man auch.

Zur Begriffsklärung muss man ein wenig in die Modallogik hinein marschieren.

Wir kennen im Deutschen zwei Wörter für Möglichkeit. Einmal den Begriff „Möglichkeit“ beim Würfeln oder Lotteriespiel. Man setzt auf eine Zahl oder kauft sich ein Los und kann sich dann Möglichkeitsgrade, Häufigkeitsgrade oder Wahrscheinlichkeitsgrade des Gewinnens oder Verlierens ausrechen. Beim fairen Würfel ist, wenn ich auf eine Zahl setze, die Möglichkeit des Gewinnens 1/6, des Verlierens 5/6. Ein anders Wort für Risiko ist Verlustgefahr, die in unserem Fall 5/6 oder ungefähr 83% beträgt. Wenn einer so das Wort möglich in den Mund nimmt, spricht er im Modus der Möglichkeit des Gewinnens oder Verlierens.

Ganz anders ist die Sachlage, wenn einer plant, ein gewisses Ziel zu erreichen. Er geht praktisch zu Werke und plant eine Erreichbarkeit, indem er Mittel zum Erreichen des Zieles angibt. Wir sind jetzt im Modus der Erreichbarkeit, nicht mehr der Möglichkeit. Wenn der Planer sein Ziel auch noch aufgeben kann, um z.B. ein anders zu wählen, dann ist das Ziel aber trotzdem noch verfügbar. Erreichbarkeit und Verfügbarkeit sind praktische Begriffe. „Möglichkeit“ ist demgegenüber ein theoretischer Begriff. Der Planer kann etwas Praktisches. Der Zocker kann sich nur ein Los oder griechische Staatspapiere kaufen und hoffen, mehr kann es nicht.

Der Unterschied zwischen einem Planer und einem Zocker wird deutlich an dem gültigen logischen Schluss: „Alles, was erreichbar ist, ist auch möglich“. Das Umgekehrte: „Alles, was möglich ist, ist auch erreichbar“, gilt natürlich nicht. Das wäre schön und fast paradiesisch, wenn alles, was möglich ist, auch erreichbar wäre. Das gibt‘s nur im Märchen. Und gerade das Märchenhafte verführt die Menschen psychologisch zum Zocken oder Spekulieren. Das macht so richtig Spaß und hat Unterhaltungswert. Die Losverkäufer freut’s


Sonntag, 18. November 2012

Ludwig Hieber über Kooperation zwischen Hochschule und Industrie im Raum Stuttgart

Ludwig Hieber (Jahrgang 1936) studierte Nachrichtentechnik an der ehemaligen Technischen Hochschule (TH) Stuttgart. Er erhielt 1965 den Master of Computer Science von der University of Newcastle upon Tyne, England, war dann Wissenschaftlicher Mitarbeiter im Rechenzentrum der TH Stuttgart und promovierte zum Dr.-Ing. Er war Gründungsmitglied der Gesellschaft für Informatik (GI) im Jahre 1968. Von 1972 bis 1996 war Ludwig Hieber Direktor der Datenzentrale Baden-Württemberg und Lehrbeauftragter in der Fakultät Informatik der Universität Stuttgart. Im Jahre 1978 wurde er zum Honorarprofessor ernannt. Seit 1999 ist er Mitglied im Kuratorium der Integrata Stiftung und seit 2000 Vorsitzender des Informatik Forum Stuttgart e.V. (abgekürzt: infos).


Bertal Dresen (BD): Ihre Berufslaufbahn als Ingenieur ist geprägt von Ihrer Verantwortung für die zentrale Datenverarbeitung (DV) des Landes Baden-Württemberg. Welche Aufgaben, Erfolge und Probleme bestimmten Ihre Amtszeit? Wodurch unterschied sich die DV des Landes von der eines kommerziellen Anwenders, etwa eines Kaufhauses oder eines Industriebetriebs? Welche technischen und organisatorischen Defizite machten sich in Ihrem Betrieb besonders bemerkbar?

Ludwig Hieber (LH): Bereits Anfang der 70er Jahre war die Informationstechnik so weit entwickelt, dass aus meiner damaligen Sicht die absehbaren Anwendungen im öffentlichen Bereich Baden-Württemberg in einem einzigen Rechenzentrum hätten abgewickelt werden können. Dazu waren aber weder die Kommunen noch der Landesbereich bereit. Zu stark war die Furcht der Verwaltungen bei Automatisierungsvorhaben, in die Abhängigkeit anderer Einrichtungen oder gar von IT-Herstellern zu geraten. Ich erinnere mich an die langjährigen Diskussionen über die maschinelle Erstellung von Mahnbescheiden. Da waren viele Hürden zu überwinden. Um die DV im Lande voranzubringen, war die Gründung mehrerer Rechenzentren im kommunalen und im Landesbereich sowie eines Softwarehauses (Datenzentrale) unumgänglich. Dafür qualifiziertes Personal zu den Tarifen im öffentlichen Bereich zu gewinnen, war ein großer Hemmschuh.

Nach Überwindung der „Softwarekrise“ und verschiedener „Software-Staus“ ist es dann über die Jahre gelungen, die DV in Baden-Württemberg zu professionalisieren. Ein wichtiger Treiber waren die finanziellen Engpässe in den Verwaltungen, die ständig Druck nach mehr Rationalisierung durch Einsatz von Informationstechnik nach sich zogen. In meiner Zeit hat der Einsatz von Informationstechnik zum Wegfall oder zur Verlagerung von mehreren 10.000 Arbeitsplätzen in Baden-Württemberg geführt.

Im Vergleich zur Wirtschaft habe ich die Entscheidungswege durch die vielen Gremien und Zuständigkeiten als außerordentlich lähmend empfunden. Das läuft in einem Kaufhaus oder in einem Industriebetrieb anders und unvergleichlich schneller. Im Vergleich zu anderen Bundesländern ist heute Baden-Württemberg in Sachen Informationstechnik gut aufgestellt. Die eingesetzten Techniken und Architekturen haben einen hohen Standard. Defizite gibt es aber immer noch. Einen CIO im Landesbereich zu installieren und mit den notwendigen Kompetenzen auszustatten, fällt offenbar auch der neuen Landesregierung schwer. Und im kommunalen Bereich ist die Abwicklung der Informationstechnik für die Gemeinden und Städte immer noch auf mehrere Einrichtungen verteilt. Da macht gerade die von den Kommunen getragene Sparkassenorganisation den richtigen Schritt. Die Sparkassen in Baden-Württemberg und die Landesbank wollen ihre Informationstechnik zusammenführen und an einem Standort in Frankfurt konsolidieren.

BD: Im Oktober 1996 gründeten Sie zusammen mit zahlreichen Fachkollegen der Stuttgarter Informatik das Informatik-Forum-Stuttgart e.V., (abgekürzt: infos). Was war die Motivation für diese Gründung? Was bewog Sie, sich hier besonders zu engagieren?

LH: Neben dem grundlagenorientierten Studiengang Informatik wurde 1996 in Stuttgart der Studiengang Softwaretechnik eingeführt, der das ingenieurmäßige Vorgehen bei der Software-Entwicklung als ein wichtiges Ziel hat. In der Vorbereitung dazu wurde klar, dass gute Kontakte zur umliegenden Software-Industrie gerade für diese Studienrichtung besonders förderlich wären. In diesem Umfeld entwickelte der damalige Dekan, Prof. Volker Claus, die Idee ein Forum zu gründen mit den Zielen:

- Stärkung der Wissenschaft Informatik und des wissenschaftlichen Nachwuchses,
- Förderung der allgemeinen Ausbildung und des Studiums im Bereich der Informatik,
- Stärkung der Beziehungen zwischen Wissenschaft und Praxis.

Fast zeitgleich mit dem Beginn des Studiengangs Softwaretechnik kam es zur Gründung von infos. Die angeführten Ziele wurden in die Satzung aufgenommen. Die Zeit vor der „Internet-Blase“ war für die Aufbaujahre von infos geradezu ideal. Überall war die Informatik im Aufwind.

Persönlich hat es mir viel Freude bereitet, IT Firmen der Region Stuttgart mit der Stuttgarter Informatik zusammenzubringen. Über die Informatikthemen hinaus entstanden viele persönliche Kontakte, die mir wichtig geworden sind. Wichtig ist mir auch, über diese Kontakte mitzuhelfen, Ergebnisse aus der Forschung der Informatik schneller in die praktische Anwendung zu bringen.

BD: infos ist als Förderverein der Stuttgarter Informatik nicht mehr wegzudenken. Was bestimmte die zahlenmäßige Entwicklung zu nunmehr über 500 Mitgliedern? Wie war die Resonanz bei den Informatik-Anwendern der Region? Was taten Sie, um die Informatik-Anwender der Region für die Mitarbeit bei infos zu gewinnen? Welche Unterstützung erhielten Sie von den Professoren, den Studierenden und früheren Absolventen (Alumni)? Was lief nicht wie erhofft?

LH: Zum Gründungszeitpunkt von infos war die Stuttgarter Informatik außerhalb vom Uni-Campus inmitten eines Industriegebietes angesiedelt, umgeben von zahlreichen  IT- Firmen. Es lag nahe, zunächst die unmittelbaren Nachbarn für infos zu gewinnen. Das ist gut gelungen. Die Einrichtung von zwei Kontaktmessen jährlich hat zu vielen Kontakten und dann auch zu Beitritten zu infos geführt. Über die Kontaktmessen kommen wir auch heute immer noch zu neuen Firmenmitgliedern. Bei den nun bald 100 Firmenmitgliedern sind fast alle IT-Firmen und große IT Anwender der Region Stuttgart bei infos. Das freut mich sehr.

Die Professoren der Stuttgarter Informatik sind sämtlich Mitglieder bei infos. Bisher ist es mir immer gelungen, die neu berufenen Kollegen spontan für infos zu gewinnen. Nicht so erfolgreich verläuft die Einwerbung von persönlichen Mitgliedern aus dem übrigen Personalkörper der Stuttgarter Informatik. Da haben wir Nachholbedarf. Nachholbedarf haben wir auch bei den Studierenden. Sehr erfreut sind wir über die lebhafte Unterstützung der Studierenden und der Fachschaft bei der Durchführung von Kontaktmessen. Eine Kontaktmesse mit über 40 Firmenständen müssten wir ohne die Hilfe der Studierenden völlig anders organisieren. Bei den Absolventenfeiern, die von infos getragen werden, versuchen wir Absolventen und Ehemalige für eine Mitgliedschaft zu gewinnen. Bisher leider nur mit mäßigem Erfolg. Hinderlich sind dabei auch die restriktiven Datenschutzregularien der Universität.

BD: Gerne lese ich die Infos-Zeitung, die als Mitteilungsblatt inzwischen im 16. Jahrgang erscheint. Welche Aufgabe haben z. B. die infos-Broschüren oder die Kontakt-Messen, die halbjährlich in Zusammenarbeit mit der Industrie durchgeführt werden? Was hat infos in die Lage versetzt, den Erweiterungsbau des Informatikinstituts mit einer Geldspende von 250,000 Euro zu unterstützen?

LH: Wir nutzen die infos Zeitung für aktuelle Informationen  aus der Stuttgarter Informatik mit den Zielgruppen Studierende und Mitglieder. Mit den infos-Broschüren greifen wir Themen auf, die über den Tag hinausreichen und von denen wir überzeugt sind, dass deren Aufarbeitung der Informatikgemeinde nützen. Beide Medien sind Stützen unserer Öffentlichkeitsarbeit, zu der auch unser aktueller Internet-Auftritt gehört.

Wie schon erwähnt ist uns der Kontakt zur IT Industrie ganz besonders wichtig. Mit den Kontaktmessen haben wir eine Plattform aufgebaut, die zu einem dem Austausch von Informatikthemen ermöglicht. Solche Kontakte bieten Potential zu Projekten mit gemeinsamen Interessen. Im Augenblick werden die Kontaktmesse von Firmen allerdings vorwiegend zur Personalgewinnung genutzt.

Aus den Mitgliedsbeiträgen und aus den Einnahmen der Kontaktmessen haben wir eine solide finanzielle Grundlage, um dort zu unterstützen, wo die Universität Engpässe hat. So ist es mit der angesprochenen Spende möglich geworden, im Neubau für das Forschungszentrum Informatik das Erdgeschoss zu einem multifunktionalen Veranstaltungsbereich auszubauen, das wir als Forum für die Kontakte zur Industrie nutzen. Der Rektor der Universität Stuttgart hat es begrüßt, dass wir diesem Bereich den Namen „Informatik-Forum Stuttgart“ gegeben haben.

BD: Wurden bei Kontaktveranstaltungen Forderungen der Firmenmitglieder bezüglich der neuen Studiengänge in Informatik an Sie herangetragen? Wie sehen die Anwender die Stuttgarter Besonderheiten (Softwaretechnik, Simulationstechnik, Computer-Linguistik)? Können die Firmen bei der Auswahl der Absolventen als künftige Mitarbeiter (noch) wählerisch sein? Wird die Notwendigkeit eines Feedbacks zwischen den Ausbildenden in der Informatik und ihren Kunden überhaupt gesehen? (Ich muss hier hinzufügen, dass ich an andere Stelle gesagt habe, dass ich als Kunde der Hochschulen die Wirtschaft sehe, analog zu einem Bäcker, dessen Kunden die Hausfrauen sind und nicht die Brötchen.)

LH: Mich wundert schon, dass Firmen bei der Umstellung und Gestaltung der neuen Bachelor- und Masterstudiengänge so gut wie kein Interesse an einer Mitwirkung gezeigt haben. Ich kann mich auch nicht erinnern, dass bei den zahlreichen Kontaktmessen Firmenvertreter die Besonderheiten der Studiengänge der Stuttgarter Informatik nachgefragt haben. Vielleicht ändert sich das mit unserer neuen Broschüre „Die Studiengänge der Stuttgarter Informatik“, die wir kürzlich an die Mitgliedsfirmen verteilt haben?

Im Augenblick werden uns die Absolventen der Stuttgarter Informatik aus der Hand genommen. Bei den Kontaktmessen ist die Zahl der Firmenaussteller in den letzten zwei Jahren prozentual stärker gewachsen als die Zahl der Absolventen. Es wird nicht nach Studiengängen ausgewählt, sondern es wird eher „genommen was da ist“ (wie beim Bäcker). Ich nehme an, das wird auch von der Erwartungshaltung getragen, dass die Stuttgarter Absolventen sich übergeordnete Fähigkeiten während des Studiums angeeignet haben, auf deren Basis die firmenspezifischen Anforderungen aufgesetzt werden können.

Ein Feedback aus dem Kreis der Firmen zur Optimierung der Studieninhalte habe ich noch nicht wahrgenommen. Als bemerkenswerte Besonderheit berichten kleinere und mittlere infos-Mitgliedsfirmen, dass sie ihren Personalbedarf der letzten Jahre fast ausschließlich über die infos-Kontaktmessen gewinnen konnten.

BD: Welche (zusätzlichen) Aufgaben und Möglichkeiten sehen Sie mittel- und langfristig für eine Initiative wie infos? Was raten Sie Kollegen in andern Universitätsstädten, die eine ähnliche Initiative gründen wollen?

LH: Unser Vorstandsmitglied Prof. Claus hat in einer Ausarbeitung mögliche Zukunftsperspektiven für infos beschrieben. Daraus möchte ich zwei wichtige Punkte ansprechen.

Die Notwendigkeit, wachsende Komplexität überschaubar zu halten und Orientierung zu geben, zwingt dazu, einzelne Bereiche der Universitäten individueller und nachdrücklicher auszubauen. Wegen der finanziellen Engpässe wird eine kräftige Unterstützung von außen notwendig sein, um den Universitäten zusätzlichen Schwung zu verleihen. Je schneller hier tragfähige Konzepte realisiert werden, umso nachhaltiger wird sich im Wettbewerb ein Vorsprung für die jeweilige Hochschule abzeichnen. Fördervereine können hier eine wichtige Rolle spielen. Kurz gesagt:  

Die Universitäten können wichtige Zukunftsaufgaben nur unvollkommen leisten. Externe Partner und Fördervereine müssen solche Aufgaben anstoßen und ggf. stabil fortführen. 

Dies wird jedoch an einer Spitzenuniversität nicht ausreichen; denn zugleich müssen Wissenschaftler vom Massengeschäft und von Verwaltungsaufgaben entlastet werden, um sich auf Forschung und die zugehörige Lehre zu konzentrieren. Erst dann werden sie im weltweiten Wettbewerb mithalten können. Der Bürokratieabbau und die Stärkung von Begegnung, Improvisation und wechselseitigem Austausch sowie stärkere Autonomie der Fachbereiche sind daher zu stärken. Hierbei können Fördervereine mithelfen.

Seit dreißig Jahren drängt die Wirtschaft auf eine engere Verzahnung von Ausbildung und späterem Beruf. Auch hier können Fördervereine als Anlaufstelle, Wegbereiter und Katalysatoren auftreten. 

Die Fördervereine sollten sich also auf weitere Aufgaben vorbereiten, um die Universitäten bei Spitzenleistungen zu unterstützen. Insbesondere werden Fördervereine verstärkt den Brückenschlag zwischen Beruf und Ausbildung und zwischen Forschung und Produktentwicklung unterstützen müssen.

In Stuttgart hat sich infos als Glücksfall entwickelt und ist zum Selbstläufer geworden. Allerdings zeigt die Erfahrung auch, dass einige Jahre notwendig sind, um eine solche „win-win Situation“ aufzubauen und stabil zu halten. Bis heute wird die Arbeit von infos durch ein massives ehrenamtliches Engagement getragen. Dieses soll in Zukunft durch eine professionelle Geschäftsstelle ergänzt werden. Ich kann mir gut vorstellen, dass das Modell infos auf andere Einrichtungen übertragbar ist. Zu einem Erfahrungsaustausch mit Kollegen an anderen Universitäten bin ich gerne bereit.

BD: Als Schwabe halte ich Sie für naturverbunden und pragmatisch. Was sind Ihre persönlichen Pläne für die Zukunft? Welche Ihrer Hobbies bekommen mehr Zeit?

LH: Da ist zunächst und zuerst mehr Zeit für die Familie auf dem Plan. Meine Frau, unsere beiden Kinder und mittlerweile vier Enkelkinder haben erste Priorität. Dazu kommt Jimmy, unser Hund, dessen Alterungsprozess uns persönlich nahe geht. Dem Ziel, keinen wichtigen Stuttgarter Ball auszulassen sind wir schon recht nahe gekommen. Ein „Muss“ ist das jährliche Tanzsportabzeichen in „Gold“. Darauf besteht meine Frau. 

Um der kalten Jahreszeit zu entgehen haben wir das Überwintern auf der Wanderinsel Teneriffa zwar geübt, aber Wiederholungen fallen uns schwer, so dass Aktivitäten im geliebten Allgäu wieder in den Mittelpunkt geraten. Dort mit den Enkeln und mit Jimmy noch richtig hohe Berge zu ersteigen haben wir auf dem Radar.

BD: Herr Hieber, vielen herzlichen Dank für das Interview. Ich wünsche Ihnen und infos weiterhin viel Erfolg.

Samstag, 17. November 2012

Zauberwährung im Währungszauberwald – ein modernes Märchen

In der Dollarwelt

Seit der Wiederwahl Obamas wird wieder davon gesprochen, dass die USA ihre Staatsschulden tilgen müssten. Wer so redet, beweist, dass er in den letzten vier Jahren nicht verfolgt hat, was in und mit dieser Welt passierte. Zumindest hat er übersehen, dass der Dollar keine normale Währung mehr ist. Zauberwährung ist als Kennzeichnung nicht ganz falsch. Ein US-Politiker, der ans Schuldentilgen denkt, könnte ebenso gut Geld zum Fenster hinaus werfen. Es gibt für die USA keinen Grund, Schulden zu tilgen. Wenn Sie einen wissen, sagen Sie es mir.

Obwohl die USA von vielen Kommentatoren als kranker Mann beschimpft werden, dürfen sie alle ihre Probleme (Rüstung, Bildung, Wohlstand, usw.) durch massenhaftes Gelddrucken lösen. Früher und anderswo hätte man Angst vor Inflation und Kursverfall haben müssen. Inflation heißt, das Verhältnis von Geldeinkommen und Warenangebot ist im eigenen Lande gestört. Mit Kursverfall bezeichnet man die Situation, wenn der Kurs der eigenen Währung gegenüber fremden Währungen sinkt. Beides geschieht nicht. Durch die Globalisierung stehen auf der ganzen Welt genügend Arbeitskräfte zur Verfügung, die Waren und Produkte billig liefern. Als derzeit einzige Leitwährung werden Dollar von Millionen Menschen außerhalb der USA gehortet. Wer sich nicht Gold umhängt wie arabische Frauen, legt seine Ersparnisse in Dollar an. Dazu gehören totalitäre Staaten wie China, Ölscheiche am Persischen Golf und in Venezuela, Rauschgiftbarone in Mittel- und Südamerika, Oligarchen in Russland oder Waffenhändler irgendwo auf der Welt. Würde der Kurs des Dollars fallen, verringerte sich das Vermögen dieser Leute in gleichem Maße.  Das werden sie zu verhindern wissen.

Dass private Amerikaner gerne Schulden machen, ist bekannt. Sie leben ihrer Zeit voraus, Sie geben jetzt das Geld aus, das sie demnächst einnehmen werden oder einzunehmen hoffen, Wenn der Leitzinssatz für Schulden absichtlich tiefer angesetzt wird als die übliche Inflation, sind die Zeichen klar. Mit ‚üblicher Inflation‘ ist hier der Prozentsatz gemeint, mit der jede Währung zwangsläufig sich abreibt oder dahinsiecht (2-3%). Dass private Gläubiger mehr als den Leitzinssatz bezahlen müssen, geht zu Gunsten einer einzigen Branche, der Finanzindustrie.

Eine Währung ist reine Vertrauenssache. Ganz früher basierte dieses Vertrauen auf der Zusage der Regierung, nötigenfalls auf den Goldschatz in Fort Knox zurückzugreifen. Seit Nixon diese Verbindung kappte, glaubte man an die Fähigkeit der Notenbank – auch Fed genannt – die Geldmenge zu kontrollieren. Das alles ist vorbei, Erstens kann es die Fed nicht mehr, zweitens will sie es nicht mehr. An die Stelle der Fed ist eine anonyme Macht getreten, die Geldbesitzer dieser Welt. Die Fed ist zur willenlosen Gelddruckerei verkommen.

Früher glaubte man auch, dass es etwas wie die benötigte Geldmenge gäbe, und dass dieser Wert etwas mit dem Wert und der Menge der gehandelten Waren zu tun hätte. Wird viel gehandelt, braucht man viel Geld. Geld sei der Schmierstoff für die Wirtschaft. Auch das war einmal.

Inzwischen ist der Schmierstoffhandel wichtiger als der Warenhandel, Sein Umfang ist ein Vielfaches des Warenhandels, das Acht- bis Zehnfache. Das Tolle ist, dass diejenigen, die den Handel betreiben, das Handelsgut nicht nach Bedarf sondern nach Belieben vermehren können. Der Großteil dessen, was man als Geld bezeichnet, wird nicht von der Fed sondern von Banken und Finanzmaklern geschaffen. Goldman Sachs ist deren Anführer. Dort sitzen jetzt die Herren der Welt – wie in einem früheren Beitrag festgehalten.

Da Schmiermittel nur eine bildhafte Bezeichnung für diese Warenart ist, erfolgt sein Handel körperlos, d.h. zwischen Computern. Diese müssen lediglich größer und schneller werden. Auch da wurden Illusionen geweckt. Das Märchen darf weitergeträumt werden. Wir Informatiker helfen mit, so gut wie wir können.

Im Euroland

Einigen Europäern wie Mitterand widerstrebte es, ihr Vermögen in Dollarn zu zählen. Die D-Mark wäre eine Alternative gewesen. Ist aber aus anderen Gründen unzumutbar. Wie im Beitrag über Helmut Kohl nachzulesen, schufen Kohl und Mitterand deshalb den Euro.

Es soll Leute gegeben haben, die hofften, dass der Euro die Rolle des Dollars als Zauberwährung verhindern oder verändern könnte. Das gefiel einigen andern Leuten wieder nicht. Es begann das Gerede von der Euro-Krise. Wie früher ausgeführt, handelt es sich dabei nicht um eine Krise des Euro. Es ist eine Schuldenkrise von einigen Ländern, die mit Euro zahlen. Wäre der Euro weniger stark, hätten diese Länder ein kleineres Problem. Jedenfalls wurden Chinesen und Araber, die begonnen hatten Euro zu sammeln, verunsichert. Sie sind jetzt hinter Ackerland und Rohstoffen in Afrika her.

Da sich die Politiker, die sich vom Euro etwas versprochen hatten (Juncker, Merkel, Sarkozy, usw.) nicht sofort geschlagen gaben, gibt es einen Währungskrieg. Da dieser Begriff zu martialisch wirkt, spreche ich lieber vom Währungszauber. Er währt  bereits vier Jahre. Immer wieder gibt es neue Standbilder, Grafiken, Szenarien und Überraschungen.

Euroland hatte nie genug Gold, um die neuen Scheine abzusichern. Der Glaube an die Macht und die Management-Fähigkeiten der EZB musste reichen. Allerdings hatten in den letzten zehn Jahren einige Südstaaten zu sehr auf die Nordstaaten vertraut. Wenn die für sich Vertrauen aufbauen, dann reicht das für uns mit – so dachte man. Jetzt muss Merkel die Gouvernante spielen und die 'Bengel' im Süden zur Disziplin erziehen. In Griechenland bekam sie dafür die Hakenkreuzbinde verpasst. Ob die 'Bengel' sich in weiteren zwanzig Jahren erziehen lassen, wird sich herausstellen. Vorher  ̶  so hofft man  ̶  werden Grüne und Rote die Gouvernante in Pension schicken. Eine Zauberwährung wird der Euro nie. Wer das erhofft, sollte lieber gleich in den Dollarraum auswandern. Gleiches gilt für Pfund Sterling und Yen sowie alle andern Bewohner des Zauberwalds.

Mittwoch, 14. November 2012

Mass Customization, Oxymora und Wikipedia

Kaum hatte ich zu erkennen gegeben, dass bei mir die Bloggerei etwas schwächelte, sprangen mehrere Kollegen in die Bresche. Jetzt habe ich es mit Überproduktion zu tun. Das ist eine Kategorie von Problemen, die sich lösen lassen.

Der Beitrag, den Hartmut Wedekind heute schickte, heißt:
- Kritik und Lob für Wikipedia.

In seiner bekannten sprachlogischen Analysemethode zerpflückt er die Verwendung des Begriffs Oxymoron in der Fertigtechnik. Seine am Schluss eingeflossene Bemerkung, dass Ingenieure der Heldenverehrung ausgesetzt seien, machte mich hellhörig. Das wäre wieder so ein Wandel, an denen in unsere Zeit kein Mangel zu herrschen scheint.

Auch ich habe – genau wie Wedekind – dazulernen müssen, was ein Projekt wie Wikipedia zustande bringt. Meine Bekehrung vom Saulus zu Paulus hatte ich letztes Jahr in diesem Blog gebeichtet.

Nachdem Hartmut Wedekind über das Problem Oxymoron schon einmal gestolpert ist, wundert es mich, dass er das bekannte Beispiel in der Informatik übersehen hat. Es ist der von Jaron Lanier geprägte Begriff der Virtuellen Realität. Vielleicht lässt sich dieser Fall per Kommentar klären.

Montag, 12. November 2012

Rettet die Neoliberalen!

„Neoliberalismus“ ist heute ein Schimpfwort. Die gegenwärtige Krise ist aber nicht den ursprünglichen Vordenkern der „Unsichtbaren Hand“ anzulasten, sondern zahlreichen verfehlten politischen Entscheidungen. .… Man kann sich beim besten Willen nicht vorstellen, dass deutsche Neoliberale diesem Treiben jemals ihren Segen gegeben hätten. Hier liegt Staatsversagen vor und nichts anderes.

So schrieb Siegfried F. Franke in dem Beitrag ‚Die verkannte Marktwirtschaft‘ in der Stuttgarter Zeitung von Samstag, dem 10.11.2012 (Nr. 261).

Am 11.11.2012 schrieb hierzu Peter Hiemann aus Zarzis in Tunesien:

Adam Smiths ökonomische Theorie war sicher ein großer Schritt seiner Epoche. Der freie Markt bzw. frei variierende Preise der Produkte und Dienstleistungen (die unsichtbare Hand) konnten sicherlich sozial ausgeglichenere Verhältnisse kreieren als vom Adel festgesetzte Abgaben. Adam Smiths Grundprinzip gilt auch heute noch. Nur müssen sich Ökonomen heute mit der Tatsache auseinandersetzen, dass sich eine neue "adlige" Gesellschaftsschicht herausgebildet hat, die hinsichtlich eines "neuen freien Marktes" für Finanzprodukte und Finanzdienstleistungen sich ähnlich dominant verhält wie der Adel zu Smiths Zeiten.

Wo ist ein heutiger "Adam Smith", der das existierende Wirtschaftssystem nicht nur kritisiert, sondern eine ökonomische Theorie erarbeitet und präsentiert, die existierende gesellschaftliche Spannungen mindern hilft und Regelkreise identifiziert, die zukünftig für sozial ausgeglichenere Verhältnisse notwendig zu beachten sind? Die geforderte Theorie muss übrigens weltweite globale Wirtschaftskreisläufe berücksichtigen. Ich kenne einen Ökonomen, der sich für eine neue Wirtschaftstheorie stark macht: Joseph E. Stiglitz, der für seine Arbeiten über das Verhältnis von Information und Märkten 2001 zusammen mit George A. Akerlof und Michael Spence den Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel erhielt.

Prof. Siegfried F. Franke gehört wohl eher nicht zu einer Gruppe moderner Ökonomen, von denen ich neue Ideen zur Wirtschaftstheorie erwarten würde.

Am 12.11.2012 schickte ich den nachfolgenden Leserbrief an die Stuttgarter Zeitung:

Laut Franke haben nicht die Theoretiker Fehler gemacht, sondern die Anwender. Diese Sicht ist nicht neu. Das sagten alle sozialistischen Theoretiker über die UdSSR. Dieses Mal hatte sich der Staat zum Büttel machen lassen durch die staatlichen Banken bei uns (vor allem die Landesbanken) und die großen privaten Börsenmakler in den USA. Das Stichwort hieß ‚Too big to fail‘ (TBTF).  Thatcher hat England sehr gut getan. Clinton trieb den Sozialismus zu weit, in dem er Freddie Mac und Fannie Mae zwang, armen Leuten ungedeckte Immobilienkredite zu geben.

Die Wirtschaftswissenschaft soll ruhig weiter Modelle entwickeln. Die Politik darf jedoch nur solche übernehmen, die ein Nahezu-Gleichgewicht ergeben. Immer müssen diejenigen Partner bevorzugt werden, die sich aktiv um die Verbesserung ihres Zustands bemühen. Wissenschaftler sollten zu erklären versuchen, warum es Unterangebote gibt, etwa an Arbeitsplätzen, und welche Maßnahmen helfen könnten, diese teilweise zu beseitigen. Es kann nicht sein, dass Wissenschaftler sagen Sozialismus ist besser als Freiheit. Die Entscheidung, wie viel von dem einen und wie viel von dem andern jetzt am besten zur Anwendung kommt, müssen Bürger, Unternehmer und Politiker (in dieser Reihenfolge!) fällen.

Zu meiner Interpretation der wirtschaftswissenschaftlichen Diskussion noch einige Zusatzbemerkungen:

Nach meinen (vereinfachten) Definitionen heißt liberal, dass der Einzelne in wirtschaftlichen (und anderen) Fragen entscheiden darf und muss. Meistens wird nur das Recht gesehen und nicht auch die Pflicht. Sozialistisch heißt, die Regierung plant und verteilt alles. Dazwischen liegen viele Abschwächungen und Mischformen. Ein viel zitiertes Beispiel ist der Ordo-Liberalismus der Freiburger Schule (Eucken, Müller-Armack, Erhardt). Es ist ein Liberalismus mit sozialem Rahmen. Milton Friedman und der Chicago-Monetarismus liegen etwas weiter rechts. Der Staat muss für stabiles Geld (genau genommen stabile Verhältnisse) sorgen, sich sonst möglichst heraushalten. Viele Politiker fanden es bequem, dass sie sich   ̶  unter Bezug auf Friedman  ̶  endlich von Experten oder Fachwissen frei machen konnten. Es besteht ohnehin das Risiko, auf die falschen Experten zu hören und damit hereinzufallen.

Sonntag, 11. November 2012

Gerhard Schimpf über das deutsche ACM-Chapter und seine eigenen beruflichen Erfahrungen

Gerhard Schimpf war von 1968 bis 1994 in verschiedenen Funktionen in der Software-Entwicklung des IBM Labor Böblingen tätig. Er begann seine Karriere als Systemprogrammierer im Bereich der Compiler-Entwicklung. Von 2008-2011 war er Vorsitzender des deutschen Chapters der Association for Computing Machinery (ACM). Schimpf hatte in  Karlsruhe Physik studiert. Seit 1995 betreibt er die Firma SMF TEAM Unternehmensberatung mit Sitz in Pforzheim.



Bertal Dresen (BD): Unsere Bekanntschaft geht zurück auf Ihre Zeit bei IBM. Wie kamen Sie als Physiker in die Datenverarbeitung (wie man unser Fachgebiet damals nannte)? An welche Aufgaben bei IBM erinnern Sie sich besonders gerne?

Gerhard Schimpf (GS): Ich bin über das wissenschaftliche Rechnen zur Datenverarbeitung gekommen. In den Jahren 1965/66 habe ich am Institut für Theoretische Physik der TH Karlsruhe meine Diplomarbeit geschrieben. Diese Zeit fiel zusammen mit dem Beginn einer zentralen Rechnerversorgung in Karlsruhe durch den Lehrstuhl für Numerische Mathematik und der anschließenden Gründung des Universitätsrechenzentrums. Dort habe ich einen Programmierkurs für ALGOL absolviert. Danach war ich am Institut sehr gefragt, weil ich der einzige Mitarbeiter war, der programmieren konnte. In Rekordzeit konnte ich mit einem Privatdozenten zusammen ein Paper publizieren, für das wir ohne Rechnerunterstützung ein Vielfaches an Zeit gebraucht hätten. Nach der Emeritierung unseres Institutsleiters wurden alle Assistentenstellen eingefroren, um den Nachfolger nicht festzulegen. Das nahm ich zum Anlass, um für einige Zeit in die Industrie zu gehen. Mit der festen Absicht nach vielleicht zwei Jahren wieder an die Hochschule zurückzukehren, habe ich mich im Herbst 1967 bei IBM beworben, um die Datenverarbeitung von Grund auf zu erlernen. Das war von Anfang an so facettenreich und attraktiv, dass aus den ursprünglich geplanten zwei Jahren dann 26 Jahre geworden sind.

Besonders gerne erinnere ich mich an das erste Projekt, bei dem ich mitgearbeitet habe und zwar deshalb, weil es mich für mein gesamtes Berufsleben geprägt hat.  Technisch ging es darum, einen Compiler für die damals neue Programmiersprache PL/I zu schreiben. Aus heutiger Sicht ein mutiges Projekt. Diese Sprache war noch nicht standardisiert und Teile der Definition waren noch im Fluss, was eine beständige Herausforderung war. Ein größeres Problem war aber die Zielmaschine, die IBM System /360 Modell 20, ein kommerzieller Rechner ohne Gleitkommaarithmetik und einem winzigen Hauptspeicher, der alles andere als geeignet war, um einen PL/I Compiler (intern C-Compiler genannt) dort in Stellung zu bringen. Der design point lag bei einer Hauptspeichergröße von 8kB, was nur dadurch gelöst werden konnte, dass der gesamte  Code in etwa 70 nachzuladende Phasen aufgeteilt wurde.

Ich hatte das Glück, dass ich über zwei Jahre hinweg dieses anspruchsvolle Entwicklungsprojekt mit all seinen Schwierigkeiten und Hürden vom ersten Projekttag bis zur Auslieferung des Compilers an die Kunden miterleben konnte. Diese Gelegenheit, einen Entwicklungszyklus vollständig zu durchlaufen und umfassendes Projektwissen zu erwerben, war insofern keine Selbstverständlichkeit, weil die IBM im Gegensatz zu vielen anderen Firmen damals schon die Kunst beherrschte, ein Projekt abzubrechen, wenn es nicht erfolgversprechend war. Geprägt hat mich aber vor allem die Arbeit in einem großen Entwicklungsteam. Für mich war das eine neue Erfahrung, zumal wir im Studium zu wissenschaftlichen Individuen ausgebildet wurden, die „ohne fremde Hilfe“ arbeiten. Zu den damaligen Erfolgsfaktoren rechne ich auch die Zusammensetzung des Teams. Junge unerfahrene Mitarbeiter, die unerschrocken Probleme anpackten, auch weil sie deren Tragweite nicht sofort begriffen, die unter Leitung erfahrener, teilweise genialer Kollegen, zusammen arbeiteten. „Fremde Hilfe“ war an der Tagesordnung und aus dem internationalen Umfeld eines Großunternehmens kam fortwährend eine Fülle von Anregungen und verwertbaren Erkenntnissen.

In der Rückschau wird mir bewusst, dass seinerzeit Pionierarbeit geleistet wurde, die Compilerbauer zur ‚crème de la crème‘ gehörten und dass es wenig Orte außerhalb des Böblinger Labors der IBM gab, wo man das Handwerk des Software Engineering noch besser hätte erlernen können.

BD: Im Jahre 1968 gegründet, feierte das German Chapter der ACM am 10. Oktober 2008 im Böblinger IBM Labor sein 40-jähriges Bestehen mit einer Fachkonferenz. Die ACM-Mutter hatte früher viel Geld. Es wurden tolle Seminare auch in Deutschland angeboten, z.B. über Computergrafik und Timesharing-Systeme. Als das Geld weniger wurde, trockneten viele der Aktivitäten in Europa aus. Wann und wie kamen Sie dazu? Sie waren lange Schriftführer. Was gab die Arbeit im Chapter Ihnen?

GS: Ich war 1973 zu einer Sommerschule über Betriebssysteme am MIT und in den Jahren 1974/1975 für die IBM auf Auslandsabordnung in den USA. In diesen Jahren waren für mich die USA richtungsweisend in der Informatik. Die ACM als zwar US-dominierte aber international verbreitete Fachgesellschaft war damals wie heute als Qualitätslabel bekannt für ihre Publikationen, stellvertretend seien die „Communications of the ACM“ genannt sowie Seminare und Treffen der Special Interest Groups.

Für mich war die Mitgliedschaft in der ACM ein Mittel, um über die Publikationen wissensmäßig auch nach der Rückkehr nach Deutschland am Ball zu bleiben. Was mir besonders gefallen hat, war der amerikanische Pragmatismus und der beständige Bezug zur Praxis. Ähnliche Motive hatte auch das 1968 gegründete ‚German Chapter of the ACM‘, dem ich 1975 beigetreten bin. Die Fachtagungen des Chapters waren jeweils geleitet vom Willen wissenschaftlich und technisch verwertbare Informationen in der noch kleinen Gemeinde der Informatiker zu verbreiten.

Für mich war die Arbeit als Schriftführer des Chapters unerwartet arbeitsintensiv, weil die gesamte Kommunikation auf dem Postweg erfolgte und für die Mitgliederverwaltung habe ich vom Vorgänger ein FORTRAN-Programm übernommen, das auf meinem Rechner, einem IBM Mainframe, nicht lief und mühsam zurechtgebogen werden musste. Der Aufwand hat sich aber gelohnt. Ich kam in Kontakt  mit den führenden Leuten unserer Zunft und bis auf den heutigen Tag sehe ich mich in einem Netzwerk von Fachkollegen, das sich über viele Jahre gehalten hat und das ich ohne die ACM nicht hätte.

Besonders wirkungsvoll war dabei das Konzept der Regionalgruppen. Diese Idee der informellen fachlichen Kommunikation unter Kollegen – zugegeben ein wenig hemdsärmelig und unakademisch  ̶  haben wir aus den USA importiert. Man trifft sich zum informellen Plausch beim Abendessen mit einem „after dinner speaker“. Die ersten Treffen dieser Art fanden 1977 in Böblingen statt und eine der ersten Sprecherinnen, die ich eingeladen habe, war die COBOL Pionierin Jean Sammet, damals Präsidentin der ACM, der ersten Frau überhaupt auf diesem Posten. Im Jahr 1979 wurde dann die Regionalgruppe München gegründet und es hat 10 weitere Jahre gedauert, bis die Gesellschaft für Informatik (GI) hinzu kam. Heute betreiben wir im Rahmen unserer Assoziation mit der GI diese Regionalgruppen gemeinsam.  

BD: In den Jahren 2008 bis 2011 hatten Sie die Funktion des Vorsitzenden und seither die des Past Chairman inne. Wie steht das Chapter heute da? Die offiziellen Mitgliedszahlen täuschen doch, wenn man Karteileichen außer Acht lässt? War mein Eindruck falsch, dass das Chapter eine Art von Stammtisch von einigen Freelancers und Siemens-Mitarbeitern im Münchner Raum war? Welche Aktivitäten stachen besonders hervor?

GS: Karteileichen haben wir heute keine mehr und der Eindruck eines Münchner Stammtisches konnte in der Tat entstehen, weil über mehr als 10 Jahre hinweg alle Vorstandsmitglieder aus München und dem Umfeld der Münchner Regionalgruppe kamen. Diesen Kollegen (alle aus dem Bereich der Industrie und der Anwendung) ist es aber zu verdanken, dass sie mit großem Selbstbewusstsein das German Chapter am Leben gehalten haben. Im Gegensatz zu anderen europäischen Ländern ist das deutsche Chapter nicht rückstandsfrei in der nationalen Informatik-Organisation aufgegangen. Hier hat man sich für ein Assoziierungsabkommen mit der GI entschieden.

Nach meiner Wahl zum Vorsitzenden des German Chapters haben wir uns im Vorstand darauf konzentriert die Attraktivität des Chapters und dessen Sichtbarkeit zu erhöhen. Dazu gehörte auch die Auffrischung der Kontakte zur amerikanischen Muttergesellschaft und zu den europäischen Initiativen der ACM. Das 40-jährige Jubiläum des Chapters mit einer Fachkonferenz im IBM Labor Böblingen und meine Kontakte zum damaligen ACM Präsidenten Stu Feldman (Google) waren dabei ein wichtiger Katalysator. In der Folge wurde ich zu einer ACM Taskforce nach Paris eingeladen, aus der das ACM Europe Council hervorging, einer von drei Initiativen außerhalb der USA (die anderen in Indien und China), mit der sich die ACM als ‚global player‘ der Informatik positioniert. Über das ACM Europe Council, in dem wir nun vertreten sind, haben wir seit einigen Jahren kurze und unbürokratische Wege zum ACM HQ. Von dort erhielten wir mehrfach Unterstützung, zuletzt bei der Benennung von Barabara Liskov, die als Turing Preisträgerin im Rahmen unserer Kooperation mit der GI als Keynote Sprecherin bei der diesjährigen Jahrestagung der GI in Braunschweig aufgetreten ist.

Neben der Belebung der Kontakte zur amerikanischen Muttergesellschaft war es mir auch ein Anliegen die Kontakte zu unserem Assoziierungspartner, der GI, aufzufrischen. In meiner Amtszeit haben wir ein „Document of Understanding“ verfasst, das die Basis für eine „friendly coexistence“ bietet und Wege der Kooperation aufzeigt. Die beiden Gesellschaften adressieren Mitglieder mit ähnlich gelagerten bzw. überlappenden Interessen, was sich oft auch in einer Doppelmitgliedschaft ausdrückt. Richtig gespielt, können beide Gesellschaften voneinander  profitieren. Dafür sind die Voraussetzungen günstig. Der Draht vom Chapter Vorstand zur GI Geschäftsstelle und zum gegenwärtigen Präsidenten ist inzwischen genau so kurz und unkompliziert, wie der zum ACM HQ in New York.

BD: Wie war in der Vergangenheit das Profil des Chapters als Fachvereinigung, vor allem gegenüber der GI? Sprach es Praktiker stärker an als die GI? Warum? Wo liegt aktuell ihr fachlicher Schwerpunkt? Für was engagiert sich das Chapter besonders? Was bietet es, was die GI nicht bietet? Der Beitrag ist mit 15 € pro Jahr seit Jahrzehnten unverändert niedrig.

GS: Für mich persönlich stand das German Chapter immer für drei Prinzipen: Vermittlung von aktuellem Wissen, Praxisrelevanz und Internationalität, d.h. vor allem auch der fachliche Austausch zu Kollegen in Europa und den USA. Der Grund warum im Chapter schwerpunktmäßig die Praktiker vertreten sind, liegt wohl an der Gründungsgeschichte und andererseits an seinen Veranstaltungen. Jemand, der in der Industrie tief im Projekt vergraben ist, kann es sich zeitlich nicht leisten zu einer einwöchigen Veranstaltung der GI zu fahren. Für einen Freiberufler kommt jeder Tag Abwesenheit einem Umsatzverlust gleich. Trotzdem möchte man informiert sein über die fachlichen Trends auf seinem Gebiet. Dafür muss in der Regel das Wochenende herhalten. ACM löst diese Situation mit seinen Publikationen und einer ganzen Reihe von Internet-Auftritten, Blogs, persönlicher Betreuung der Mitglieder anhand ihres Interessenprofils sowie Self-Learning-Kursen. Das German Chapter bietet für vielbeschäftigte Praktiker u.a. Kurztagungen im „live“ Format an.“Live“ steht dabei synonym für Praxisrelevanz. Bei der eintägigen „Software Engineering live“ diskutieren Software-Architekten und Methodenverantwortliche über Techniken, die aktuell in realen Projekten angewendet werden. Bei der „IT-Security live“ diskutieren für die IT-Sicherheit in den Unternehmen verantwortliche Professionals über real existierende Sicherheitsprobleme und deren Lösungen.

Um Reisezeit und –kosten für die Teilnehmer zu sparen engagiert sich das Chapter darüber hinaus beim ACM Europe Council dafür, dass internationalen Fachtagungen der ACM alternierend in Übersee und in Europa stattfinden. Bereits zweimal ist es uns gelungen solche Tagungen in den deutschsprachigen Raum zu ziehen. Insgesamt bietet das German Chapter seinen Mitgliedern zu einem sehr geringen Mitgliedsbeitrag eine Plattform, um engagierten Professionals einen kollegialen und von Freiwilligenarbeit getragenen Fachaustausch zu ermöglichen. Dabei bietet das Chapter den Veranstaltern solcher Tagungen Starthilfe und  finanziellen Rückhalt. Bei seinen Entscheidungen ist hier das Chapter wegen seiner überschaubaren Größe sicher schneller als die GI, auch wenn es darum geht einmal unkonventionelle Wege zu gehen.

BD: Die englische Kollegin Wendy Hall (Universität Southampton) hat als ACM-Präsidentin eine Wiederbelebung der europäischen Aktivitäten betrieben. Was wurde konkret getan bzw. geplant?

GS: Die Präsidentschaft von Dame Wendy (sie wurde inzwischen durch die englische Königin geadelt) fiel zusammen mit der Überführung der ACM Europe Taskforce in ein dauerhaftes Gremium, dem ACM Europe Council, unter Leitung von Fabrizio Gagliardi (Microsoft). Dieses Gremium ist inzwischen auf 22 Mitglieder angewachsen, die sich in vier Gruppen organisiert haben, um die folgenden Zielstellungen zu verfolgen:
  • Intensivierung und Bündelung aller ACM-Aktivitäten in Europa, u.a. durch Zusammenarbeit und Verflechtung mit bestehenden europaweit operierenden Wissenschaftsorganisationen
  • Ermutigung der europäischen Mitglieder, um sich an der Nominierung für die „advanced member grades“ sowie an den von der ACM ausgelobten Preisen zu beteiligen
  • Erhöhung der Anzahl der ACM-Konferenzen in Europa
  • Ausweitung der Chapter-Aktivitäten in Europa und Gründung neuer Chapter.
Sichtbares Ergebnis wird die erste ACM ECRC (European Computing Research Conference) sein, die im Mai 2013 in Paris stattfinden wird. Vorbild ist die amerikanische ‚Federated Computing Research Conference‘, bei der mehrere ACM SIGs parallel ihre Jahrestagung abhalten. Nukleus der ECRC bildet die SIGCHI, weiter nehmen teil die SIG-ACCESS, SIG-DA und die SIG-Web. Neben fachlichen Aspekten wird erwartet, dass dadurch die ACM auch gegenüber der europäischen Kommission sichtbar  wird. Die ersten Kontakte sind geknüpft.

Eine solche Großveranstaltung ist wohl nötig, um im allgemeinen Strom der Ereignisse wahrgenommen zu werden. Es fehlt nämlich nicht an fachbezogenen Aktivitäten der ACM. Die Website von ACM Europe listet über 40 Fachtagungen auf, die im nächsten Halbjahr in Europa stattfinden werden. Dabei wird einem erst richtig bewusst, wie weit die Informatik heute in einzelne Spezialgebiete aufgefächert ist. Auch auf Chapter-Ebene gab es bereits sichtbare Ergebnisse. Im Januar hat in Paris der erste Workshop für die europäischen ACM Chapter Officers stattgefunden. Dabei wurde eine Vielzahl von Verbesserungsvorschlägen erarbeitet. Im Einzelnen ging es um die Nutzung der von der ACM angebotenen Programme (wie das ‚Distinguished Speaker Program‘) und die Unterstützung durch die amerikanische Zentrale. Diese Treffen werden fortgesetzt werden. Interessant ist für mich die Beobachtung, dass die wesentlichen Impulse zurzeit von den europäischen „Randstaaten“ ausgehen.

BD: Welches Potenzial sehen Sie für die Zukunft des ACM Chapters? Was wünschen Sie sich, z.B. von der GI? Was wünschen Sie sich von den Mitgliedern?

GS: In Zeiten einer stark deformierten Alterspyramide dürfte die Gewinnung jüngerer Neumitglieder sehr begrenzt ausfallen. Dennoch sehe ich Wachstumspotentiale für das German Chapter. Einerseits gibt es zahlreiche ACM-Mitglieder in Deutschland, die noch nie etwas vom ‚German Chapter of the ACM‘ gehört haben. Dieses Potential können wir mit Hilfe der amerikanischen Mutter und über die Europainitiative erschließen. Eine zweite Zielgruppe sind die „Young Professionals“, d.h. Informatiker in der Industrie mit 5 bis 10 Jahren Berufserfahrung. Ich gebe zu, dass wir hier noch keine „silver bullet“ gefunden haben und dass wir uns verstärkt in deren Lebenssituation hineindenken müssen, um sie anzusprechen. Ich denke aber, dass hier latent ein Bedarf zum fachlichen Austausch besteht, der nicht durch elektronische Kommunikation gedeckt werden kann. Eine dritte Zielgruppe, die mit Sicherheit nicht den Weg zu GI finden wird, sind die nicht-akademischen Informatiker. Hier gibt es gerade bei den Freiberuflern ein Potential mit einem interessanten praktischen Erfahrungswissen, das es lohnt zu erschließen.

Meine Wünsche an die GI sind bescheiden. Hauptsächlich geht es darum, die im ‚Document of Understanding‘ angerissenen Kooperationsmöglichkeiten mit Leben zu erfüllen. Von manchen in der GI werden wir vielleicht nicht wahrgenommen. Ich bin aber froh darüber, dass man in den Leitungsgremien erkannt hat, dass das ‚German Chapter of the ACM‘ zwar klein, aber nicht unbedeutend ist. Meine Wünsche an die Chapter-Mitglieder lassen sich mit denen eines Fußballtrainers vergleichen. Wir spielen recht gut in der Regionalliga. Wir brauchen aber dringend motivierte Vereinsmitglieder und neue Spieler, um auch in der Bundesliga mitzuspielen.

BD: Ihre Firma führt den Namen SMF TEAM Unternehmensberatung für IT-Sicherheit. Wo genau liegt ihr Tätigkeitsfeld? Was sind Ihre Erfahrungen als selbständiger Unternehmer?

GS: Mein Tätigkeitsfeld betrifft die Beratung von Unternehmen und den Aufbau von Managementsystemen zur IT-Sicherheit. Die Grundstrukturen sind zwar durch ISO Normen gegeben, in der Praxis haben wir es in der Regel mit einem schwer zu entwirrenden Themenbündel aus technischen und organisatorischen Gegebenheiten zu tun, bei dem die Firmenkultur, aber auch wirtschaftliche Zielkonflikte des verantwortlichen Managements eine große Rolle spielen. IT-Sicherheit ist ein komplexes Querschnittsthema. Die Arbeit der Sicherheitsberater spielt sich zu großen Teilen im Verborgenen ab. Die Erfolge, identifizierte Schwachstellen, erkannte Risiken im Unternehmen, stattgefundene Angriffe auf die Infrastruktur eignen sich leider nicht, um damit Reklame zu machen.

Die größten Chancen, um an Aufträge zu kommen, haben daher nach meiner Erfahrung Persönlichkeiten, die einerseits ein sehr großes organisatorisch-technisches Querschnittswissen auf der Höhe der Zeit haben, andererseits aber auch so verschwiegen sind, dass sich ein ungestörtes Vertrauensverhältnis zwischen Auftraggeber und Auftragnehmer herausbildet.

Und ganz persönlich freue ich mich darüber, dass mein Wissen gefragt ist und ich mich in einem Alter, bei dem sich meine Alterskohorte längst zur Ruhe gesetzt hat, mit derart interessanten Aufgaben befassen kann. Ich habe meiner Frau aber versprochen, dass ich mit Ablauf dieses Jahres nur noch ehrenamtlich tätig sein werde.

BD: Herr Schimpf, vielen Dank für dieses sehr ausführliche Interview.

Samstag, 10. November 2012

Biologisches Weltbild und Transhumanisten

Vorbemerkung: Dieser Beitrag besteht aus zwei Teilen, die mir Peter Hiemann am 4.11.2012 aus Zarzis in Tunesien schickte. Die Überschriften wurden nachträglich eingefügt.
 

[Teil 1: François Jacobs Welt der Bakterien]

... ich habe während meines Tunesienaufenthaltes ein Buch gelesen, das mir ein Geschichtsbild und damit wertvolle Einsichten vermittelt hat. Dabei handelt es sich um eine Geschichte, die viele Beteiligte aufweist und zeigt, wie viel Mühe und Zeit nötig ist, um wichtige Gedankengebäude zu errichten. Diese werden in kleinen, manchmal auch größeren Schritten geschaffen, wobei in jeder Epoche für diese Epoche typische „Räume“ durch repräsentative Persönlichkeiten eröffnet werden. Manche dieser Räume mussten mit der Zeit aufgegeben werden, manche wurden renoviert, neue kamen hinzu.

Das Buch wurde von François Jacob verfasst: „Die Logik des Lebenden – Eine Geschichte der Vererbung“. Jacob erzählt die spannende Geschichte biologischer Hypothesenbildung und Entdeckungen.

Im 16. und 17. Jahrhundert ging es den Beteiligten um die Analyse der natürlichen Strukturen und die Frage, welche ordnende Macht dahinter steht und für harmonische Verhältnisse sorgt. Während der zweiten Hälfte des 18. Jahrhunderts und des Übergangs zum 19. Jahrhundert erstrecken sich Analyse und Vergleich biologischer Objekte nicht mehr ausschließlich auf die Anordnung strukturbildender Elemente sondern auf die inneren Beziehungen zwischen Elementen.

Im 19. Jahrhundert wird immer deutlicher, dass biologischen Strukturen sich nach einem „Organisationsplan“ entfalten. Das Huhn erzeugt das Ei und das Ei erzeugt das Huhn. Was wann entsteht, ist eine Frage der Zeit. Die Vielfalt der natürlichen Strukturen deutete mit Hilfe der Geologen darauf hin, dass eine „weiter entlegene, mächtigere Zeit“ für weitreichende Beziehungen zwischen Lebewesen gesorgt hat. Die Theorie der Evolution wurde möglich. Mitte des 19. Jahrhunderts entstehen die „endgültigen“ Formen der Zelltheorie und der Evolutionstheorie. Jetzt wird mit der chemischen Analyse der Körperfunktionen und die Erforschung der Vererbung begonnen.

Am Beginn des 20. Jahrhunderts etablieren sich die Spezialgebiete Biochemie und Genetik. Die Biochemie analysiert die Stoffe, aus denen Lebewesen aufgebaut sind, und die Reaktionen, die in ihnen ablaufen. Die Genetik untersucht Populationen von Organismen, um ihre Vererbung zu analysieren. Es wird postuliert, dass Vererbung wohl auf einem natürlichen „Gedächtnis“ beruhen muss. Um Regeln der Vererbung zu finden, werden Analogien der Denkweisen der statistischen Mechanik Boltzmanns und der Evolutionstheorie Darwins ins Feld geführt. Die Berücksichtigung von Wahrscheinlichkeiten ermöglicht die Begriffe „Ordnung“ und „Zufall“ als zwei Seiten derselben Medaille aufzufassen.

Mitte des 20. Jahrhunderts ändert das Thema „Organisation“ noch einmal ihre Regeln. Jetzt bestimmt die Struktur der aufbauenden Elemente die Struktur des Ganzen. Die aufbauenden Elemente werden im Kern der Zelle gesucht und gefunden: Chromosomen. Um ihre Strukturen zu analysieren, entsteht der neue biochemische Fachbereich Zytologie. Mit neuen Verfahren werden Chromosomen  eingefärbt („Chrom“), sodass deren Strukturen sichtbar werden. Sehr bald vermutet man in den Keimzellen (Eizellen und Samenzellen), die halb so viele Chromosomen wie somatische Körperzellen enthalten, die Träger der Vererbung.

Im vorletzten Kapitel „Das Molekül“ seines Buches beschreibt Jacob die Ergebnisse seiner Studien, die er mit Hilfe der „einfachsten“ biologischen Strukturen, eines Bakteriums und eines Virus, gewonnen hat. Ein Bakterium besteht zwar nur aus einer Zelle ohne Zellkern, besitzt aber alle alle biologischen Funktionen, die es der Zelle erlauben sich zu reproduzieren, aus einer Zelle zwei zu machen, die beide die exakt gleichen Funktionen besitzen. „Mit höchster Geschwindigkeit führt die kleine Bakterienzelle etwa zweitausend (biochemische) Reaktionen durch, die ihren Metabolismus bilden“. Die kleine Zelle produziert alle Proteine entsprechend genetischer Vorgaben. Es sind aber die Proteine, die sowohl bestimmen, welche genetischen Anweisungen wann auszuführen sind, als auch für die Durchführung der biochemischen Reaktionen zwischen Proteinen „sorgen“. Für jede biochemische Reaktion produziert die Zelle ein spezielles Enzym (Protein), um eine spezielle  Reaktion zu katalysieren. Die Regulierung der biochemischen Prozesse erfolgt durch spezielle Regulatorproteine, die nicht an den biochemischen Reaktionen beteiligt sind, sondern „nur“ spezifische Wechselwirkungen zwischen Molekülen „vermitteln“. Regulatorproteine besitzen die Eigenschaft, solche Wechselwirkungen zuzulassen oder zu blockieren. Die Organisation einer Bakterienzelle ist ein beeindruckendes Beispiel eines sich selbstorganisierenden Systems. Die Logik des Systems beruht auf dem Bestreben des Bakteriums, zwei identische Bakterien zu möglichst geringen Kosten herzustellen.

Das Kapitel enthält auch ein paar generelle interessante Hinweise. Die Natur benutzt   eine äußerst effektive Methode, um aus einer einfach zu duplizierenden linearen genetischen Struktur die Reproduktion dreidimensionaler Proteinstrukturen zu erreichen.  Die Natur benutzt Kommunikationsnetze, um die Bestandteile, die im atomaren Maßstab weit voneinander entfernt sind, zu informieren und um bestimmte Aktivitäten im Hinblick auf ein allgemeines Interesse zu steuern. 

Jacobs Überlegungen sind Worte Diderots voran gestellt, die er in einem Gespräch mit d'Alembert geäußert hat: „Sehen Sie dieses Ei ? Mit ihm bringt man sämtliche theologischen Schulen und alle Tempel der Welt zum Einsturz.“ Dies ist eine Bemerkung wert: The Nobel Prize in Physiology or Medicine 1965 was awarded jointly to François Jacob, André Lwoff and Jacques Monod "for their discoveries concerning genetic control of enzyme and virus synthesis".

Francois Jacobs Überlegungen wurden 1970 publiziert. Zu dieser Zeit war das Wissen um die zentrale Rolle der DNA schon ziemlich weit gediehen. François Jacob beschäftigte sich besonders mit genetischen Mechanismen bei Bakterien und Bakteriophagen sowie den biochemischen Folgen von Punktmutationen. Jacobs Aussagen über die Logik des Lebenden beruhen nicht nur auf theoretischen Arbeitshypothesen einer jeweiligen Epoche  sondern sind untermauert durch unglaubliches Detailwissen aus Physik, Chemie und eben Biologie der jeweiligen geschichtlichen Epochen. Obwohl seit 1970 das Wissen um die komplexen dynamischen biologischen Prozesse unglaublich erweitert wurde, sind Jacobs Überlegungen nach wie vor aktuell. In einem Nachwort zur Neuauflage der deutschen Übersetzung 2002 stellt Hans-Jörg Rheinberger fest: „Man möchte an seiner (Jacobs) Beschreibung der fundamentalen Spannung zwischen  Reduktion und Integration, Immanenz und  Transzendenz, Mechanismus und Finalität, in der sich die Wissenschaften vom Leben entwickelt haben, heute keine Zeile ändern“. Jacob hat immer betont, dass das Phänomen Leben auf den fundamentalen Gesetzen der Physik und Chemie  aufbaut. Seine Erkenntnisse zeigen aber deutlich, dass die Phänomene des Lebenden zusätzliche Erklärungen erfordern, die sich auf die Erhaltung, Weitergabe und Mutation genetischer (programmatischer) Information und die unglaubliche Vielfalt organischer (proteischer) Funktionalität beziehen, also den Gesetzen der Evolution unterliegen. Die heutigen Wissenschaftler sind weiterhin damit beschäftigt, die Geheimnisse des Lebenden zu entschlüsseln. An dieser Arbeit beteiligen sich Wissenschaftler vieler Fachbereiche. Auch Systemtheorie, Kommunikationstheorie und Informatik spielen dabei eine Rolle. 

 [Teil 2: Ray Kurzweil und der Transhumanismus]

Parallel zu Francois Jacobs Geschichte musste ich mich mit einer Geschichte zum Thema „Transhumanismus" oder "Posthumanismus“ befassen. Arte hatte dem Thema unter dem Titel „Welt ohne Menschen“ eine Sendung gewidmet. Ich wurde um Kommentare dazu gebeten. Ich konnte die Sendung zwar hier in Tunesien nicht empfangen, habe aber anderweitig versucht, mich schlau zu machen. Offensichtlich gibt es „Informatikexperten“, die sich selber „Transhumanisten“ nennen. Sie behaupten, dass die Zeit gekommen ist, um mit technischen Mitteln eine wesentlich verbesserte Version der Art Homo sapiens zu kreieren. Meine erste Reaktion auf die Aussagen der „Transhumanisten“ war: Höre ich recht? Ich erinnerte mich an eine Geschichte, die ich schon vor längerer Zeit eigentlich amüsant fand. In einem Vortrag erklärt ein Professor, dass die Physiker errechnet haben, dass unsere Sonne nach etwa sieben Milliarden Jahren sich zu einem roten Riesen aufblähen wird und der Planet Erde verglühen wird. Fragt ein verängstigter Zuhörer: Sagten Sie Milliarden oder Millionen?

Weniger amüsant finde ich die unglaublichen Geschichten, die die „Transhumanisten“ verbreiten. Der Schwerpunkt der Transhumanismus-Bewegung ist die Anwendung neuer und künftiger Technologien, die es jedem Menschen ermöglichen, seine Lebensqualität nach Wunsch zu verbessern, sein Aussehen sowie seine physikalischen und seelischen Möglichkeiten selbst bestimmen zu können. Sie behaupten, das Hochladen des menschlichen Bewusstseins in digitale Speicher, die Entwicklung von Superintelligenz, und beliebige Manipulation menschlichen Erbgutes sein nur eine Frage der Zeit. „Transhumanisten“ sprechen von „technologischer Singularität“ und verstehen darunter  den Zeitpunkt, ab dem sich Maschinen mittels künstlicher Intelligenz selbst verbessern können und so den technischen Fortschritt massiv beschleunigen. Einige ihrer Vertreter gehen davon aus, dass sich durch den damit verbundenen technologischen Fortschritt die Dauer der menschlichen Lebenserwartung maßgeblich steigern bzw. sogar biologische Unsterblichkeit erreichen lässt.Sie prognostizieren den Zeitpunkt der technologischen Singularität auf den Mittelpunkt des 21. Jahrhunderts.

Raymond "Ray" Kurzweil ist ein führender Vertreter des „Transhumanismus“. Auf einer Webseite können Sie sich ein Bild über dessen Ansichten machen. Ich halte ihn für einen der „Experten“, denen es schwerfällt, die Komplexität und Dynamik biologischer Phänomene richtig einzuschätzen, die aber trotzdem unglaubliche Geschichten verbreiten.

Übrigens gibt es eine Universität, die von „Transhumanisten“ gegründet und betrieben wird: 

The Singularity University is not an accredited four-year university, but is instead intended to supplement traditional educational institutions. It offers an annual ten-week summer course intended for graduate and post-graduate students and ten day programs for senior corporate executives and senior government leaders. The first Graduate program began in June 2009, with full tuition costing US$25,000.

The University offers 10 different academic tracks, each chaired by one or more experts in the field:
1.Futures Studies and Forecasting (Ray Kurzweil, Paul Saffo)
2.Policy, Law and Ethics (Marc Goodman)
3.Entrepreneurship (Eric Ries, founded by David S. Rose)
4.Networks and Computing Systems (John Gage, Brad Templeton)
5.Biotechnology and Bioinformatics (Raymond McCauley, Andrew Hessel)
6.Nanotechnology (Ralph Merkle, Robert Freitas, Jr.)
7.Medicine and Neuroscience (Daniel Kraft, Michael McCullough)
8.AI, Robotics, and Cognitive Computing (Neil Jacobstein, Raj Reddy)
9.Energy and Ecological Systems (Gregg Maryniak)
10.Space and Physical Sciences (Dan Barry)

Ich vermute, dass große Konzerne, die nicht selber in neue Technologien investieren, das Angebot der Singularity University nutzen, um einigen Mitarbeitern eine Weiterbildung zu ermöglichen. In der Hoffnung (Illusion?), dass sich „transhumanistisches“ Wissen in kommerziell interessanten Innovationen niederschlägt. Entwicklungsprojekte, die eine reelle Chance besitzen, dem Menschen nützliche Hilfsmittel zur Verfügung zu stellen, befassen sich mit sehr konkreten Themen. Sie haben mit „Transhumanismus“ nichts am Hut. Konkrete Projekte, die sich auf menschliche Organismen beziehen, lassen sich in drei Kategorien unterscheiden. Zur biologischen Kategorie zählen Forschungen und Entwicklungen, um Wirkstoffe (Proteine) zu finden, die molekularbiologische Prozesse von Zellen beeinflussen. Zum Beispiel können pharmazeutische Wirkstoffe auf die Exprimierung des genetischen Programms von Krebszellen einwirken (z.B. Gene blockieren, um unkontrolliertes Wachstum zu stoppen oder die Entstehung neuer Krebsblutgefässe zu unterbinden).

Zur geistigen Kategorie gehören die Entwicklung pharmazeutischer Wirkstoffe, die ihre Wirkung im Zentralnervensystem entfalten. In diese Kategorie gehören auch Projekte, bei denen elektronische Komponenten verwendet werden. Beispiele dafür sind elektronische Hilfsmittel, die im Gehirn oder Herz stabilisierend wirken, aber auch sensorische Nervenzellen stimulieren (Sehen, Hören). Elektronische Spiele gehören wohl auch in diese Kategorie, deren Einfluss auf kognitive Fähigkeiten unterschiedlich bewertet wird. Zur Kategorie der gesellschaftlich relevanten Gruppe von Projekten gehören alle Projekte, die menschliche Tätigkeiten unterstützen, ersetzen oder gar überflüssig machen. Aber auch Projekte zur Entwicklung von Hilfsmitteln, die neuartige menschliche Tätigkeiten erst möglich machen. Dazu gehören auch elektronisch gesteuerte Prothesen. Kommerziell am Einträglichsten dürften aber Projekte sein, die Biotechnologie (Proteinherstellung) und Nanotechnologie für industrielle Zwecke zum Einsatz bringen. Zum Beispiel zur Energiegewinnung oder für neue Werkstoffe.

Um nicht missverstanden zu werden: Ich erachte es für völlig normal, dass Leute mit wissenschaftlichen und kommerziellen Interessen abschätzen, welches Potential in existierenden Technologien steckt, um Homo sapiens ein besseres Leben zu ermöglichen. Meines Erachtens geht es aber bereits oder sehr bald vor allem um Technologie (auch zukünftige), die Homo sapiens auf einem übervölkernden Planeten hilft zu überleben, d.h. um Umweltbedingungen zu erhalten oder so zu verändern, dass ausreichende Nahrung, Energie und Rohstoffe zur Verfügung gestellt werden können. 

Nachbemerkung: Obwohl Peter Hiemann und ich [Bertal Dresen] uns einig sind, die ‚Transhumanisten‘ nicht allzu ernst zu nehmen, ist es interessant zu sehen, wie weit sich diese von Ray Kurzweil gestartete Geistesschule bereits entwickelt hat.