Dienstag, 28. Juni 2011

Leib-Seele-Problem in Literatur und Philosophie

Kaum war mein Beitrag über Eric Kandel in diesem Blog erschienen, da brachte mir mein Freund Hans Diel das Buch ‚Einsicht ins Ich‘ von Hofstadter und Dennett von 1981 (engl. Titel: Mind’s I). Obwohl ich diese Art von Aufmerksamkeiten inzwischen gewohnt bin, freue ich mich jedes Mal aufs Neue. Meine Freunde wissen, ich habe Zeit, oder anders gesagt, ich verbringe einen großen Teil meiner Zeit mit dem Lesen von E-Mails und Blogs sowie (papiernen und elektronischen) Zeitungen, Zeitschriften und Büchern. Lesen ist oft – aber leider nicht immer – anregend. Sehr oft mache ich mir bereits während des Lesens in Stichworten Aufzeichnungen darüber, was mir das Buch sagt. Manchmal drängt sich dabei Einiges auf, was das Buch nicht sagt, oder was ich zu diesem Thema anders sagen würde. Hier ist wieder so ein Fall.

Ich habe besagtes Buch, das inzwischen 30 Jahre alt ist, mit einiger Mühe und nur streckenweisem Vergnügen gelesen. Die Mühe ergab sich aus einigen offensicht­lichen Längen und den unterschiedlichen Erzählerstilen. Es handelt sich nämlich um eine Sammlung philosophischer und literarischer Texte, die alle einen gewissen Bezug zu der Frage haben, was Geist ist und wie er sich selbst sieht. Mehrere der Texte kannte ich, zumindest aus der Sekundärliteratur, so Turings Text von 1950, in dem er den nach ihm benannten Intelligenz-Test vorschlägt. Aber auch Dawkins egoistische Gene von 1978 und Searles Gedankenexperiment des chinesischen Zimmers von 1980 waren mir bereits bekannt. Echtes Vergnügen bereiteten dagegen die jeweils drei Texte von Stanislaw Lem und Raymund Smullyan, die man eher als Science Fiction ansehen kann (ihren Inhalt verrate ich absichtlich nicht). Auch Jorge Luis Borges wiederzutreffen, ist ein Genuss. Douglas Hofstadter und Daniel Dennett kommen­tieren jeden Text ausführlich und versuchen ihn einzuordnen in ihr angeblich moderneres Weltbild, das zwar nicht genau zu erkennen ist, das aber offensichtlich dem Materialismus und damit dem Monismus nahesteht. 

Um die Fronten zu klären, hier kurz die Begriffsstruktur. In der dualistischen Auffassung, die auf Descartes zurückgeht, ist mit Geist eine nicht-materielle Substanz gemeint, die weder Masse und Energie, noch einen Ort hat. Seele ist ein Unterbegriff, so sind es Bewusstsein und Emotionen. Bei der monistischen Auffassung dagegen ist Geist – wenn das Wort überhaupt benutzt wird – ein Sammelbegriff für eine Klasse von Funktionen des Gehirns höherer Lebewesen, die Intelligenz und Bewusstsein verraten. In der strengsten, der physikalischen Auffassung des Monismus sind alle Zustände des Geistes nichts anderes als Zustände des Körpers.

Sicherlich ist es interessant zu vergleichen, wie weit sich unser Wissen innerhalb einer Generation weiterentwickelt hat. Beginnen wir mit dem Turing-Test. Es gibt zwar eine Stiftung, die jährlich einen Preis an dasjenige Programm vergibt, das der Erfüllung des Testes an Nächsten kommt. Man ist heute jedoch der Ansicht, dass durch den Turing-Test nur ein Teilaspekt der Intelligenz gemessen wird, und dass Formen der Intelligenz, die sich nicht in einem Dialog ausdrücken können, nicht berücksichtigt werden. Auch Dawkin gilt als widerlegt, wie es etwa Joachim Bauer in seinem Buch ‚Das kooperative Gen‘ getan hat.

In der Sekundärliteratur wird hin und wieder noch das Gedanken-Experiment des chinesischen Zimmers von John Searle zitiert. Searle beschreibt eine Person, die kein Chinesisch versteht, die man aber anhand immer detaillierter englischer Anwei­sungen nach und nach befähigt, auf Fragen, die in Chinesisch gestellt werden, auf Chinesisch zu antworten, und zwar schriftlich. Genau das täte ein Computer, der von einer Sprache in die andere übersetzt, meinte Searle. Anstatt Zetteln mit Gekraxel würde der Computer nur Zeichen manipulieren. Verstehen was er tut, kann er nicht. Das kann nur ein Mensch dank seiner ganz spezifischen Begabung, wenn er außerdem die gesamte Begriffswelt der Sprache kennt. Natürlich hat hier Searle Recht. Das heißt aber nicht, dass Computer nicht fließend von einer Sprache in eine andere übersetzen können, oder dass sie auch schwierige Fragen in einer Quizsendung beantworten, wie es das System Watson vor kurzem tat. Ob man das als Denken oder als Intelligenz bezeichnen darf, ist meines Erachtens eine ziemlich nebensächliche Frage.

Wogegen Searle eigentlich kämpfte, war im Grunde eine besondere Form des Dualismus, wie sie von der so genannten ‚starken KI‘ vertreten wurde. Zu dieser Denkschule (fast hätte ich Geistesrichtung gesagt) gehören Leute wie Kurzweil, McCarthy, Minsky und Schank, die meinen den Geist mit Software und den Körper mit Hardware gleichsetzen zu müssen. Beim Gehirn scheint der Begriff Hardware ihnen nicht ganz zu gefallen, deshalb reden sie manchmal auch von Feuchtware (Wetware). Die entscheidende Schlussfolgerung der KI-Leute lautet: Ist der Geist Software, müsse er auch auf anderer Hardware als dem menschlichen Gehirn existieren können, etwa auf dem Silizium von Computern. Hier hakte Searle mit Recht ein. Diese Vorstellung war in der Tat zu beschränkt. Man weiß inzwischen, dass unser Geist, genauer gesagt, unser Bewusstsein von unserer Körperlichkeit abhängt. Verweisen möchte ich hier auf den Februar-Eintrag über Thomas Metzinger in diesem Blog. 

In der Diskussion mit Searle hat John McCarthy, der bekannteste Vertreter der ‚harten KI‘ nach Searles Meinung etwas dümmlich argumentiert. Ich glaube eher, dass McCarthy versucht hatte zu provozieren, als er sagte, dass nach seiner Meinung ein Thermostat über Überzeugungen und Intentionen, also Absichten, verfügt. Vielleicht wollte McCarthy nur sagen, dass viele technische Geräte über einen Plan verfügen, der ihnen genau sagt, wie sie sich in Zukunft verhalten werden. Man könnte das Wort Intention auch als eine andere mögliche Bezeichnung für das Wort Programm ansehen. Hätte er es so gesagt, hätten ihm die Philosophen kaum widersprochen.

Searle gibt in seinem Artikel freimütig zu, dass für ihn das Vorhandensein von Geist a priori gegeben ist, weil es sonst wohl keine Kognitionswissenschaften zu geben bräuchte. Geisteswissenschaftler geraten mit Ingenieuren und Naturwissenschaftlern immer wieder ins Gehege, wenn sie aus zufällig vorhandenen Begriffen einer Sprache (ob der deutschen, englischen oder chinesischen, sei dahingestellt) wissenschaftliche Erkenntnisse gewinnen wollen. Sprache ist nämlich – nicht nur nach meiner Auffassung - ein reines Hilfsmittel, um Begriffe, die wir für nötig oder sinnvoll halten, festzunageln, quasi mit einem gelben Post-it-Zettel zu versehen. Eine Seele existiert nicht deshalb, weil es dieses Wort gibt, das gleiche gilt für Engel, Ewigkeit, Geist, Gespenst, Götter, Himmel, Hölle, Nixe, Titanier, Werwolf, usw. Es gibt viele Wörter für Dinge, die es nicht gibt. Andererseits gibt es Unmengen von Tatsachen, für die wir (noch) keine Begriffe besitzen. Auch unterscheiden sich die Sprachen verschiedener Kulturen und Völker (oder Berufs- und Altersgruppen) in dieser Hinsicht.

Immer wieder hat die Naturwissenschaft vorhandene Begriffe genommen und sie mit neuem Inhalt versehen, so Kraft, Masse, Beschleunigung, Wahrscheinlichkeit und Zufall. Sicherlich wird es Leute wie Searle stören, dass ein Thermostat über Spannung verfügt, oder ein Stein Widerstand besitzt (und nicht nur leistet). Naturwissen­schaftler und Ingenieure unterscheiden sich bekanntlich dadurch, dass Naturwissen­schaftler die Natur verstehen wollen, Ingenieure nutzen ihre Phänomene, auch ohne sie zu verstehen, wie z.B. die Elektrizität. Da mir für diese beiden Wissenschaften kein gemeinsamer Begriff einfällt, benutze ich im Folgenden die Umschreibung ‚die beiden Herausforderer‘. Sie sind erst seit 300 Jahren mit im Wettkampf der Ideen vertreten, den die Geisteswissenschaftler vor 3000 Jahren begonnen haben.

Die beiden Herausforderer arbeiten solange unter der Annahme, dass die Welt rein mechanistisch zu erklären ist, solange diese Annahme trägt – aber keine Sekunde länger. Diese Annahmen darf man auch als Hypothesen oder Modelle bezeichnen. So war es mit dem Weltbild des Ptolomäus oder der Physik von Newton und Einstein. Reichten diese Modelle nicht mehr aus, erfand man entweder Epizyklen (im Falle der Planetenbahnen) oder legte ein anderes Modell zugrunde, etwa das der Quantenphysik (in der Kopenhagener Interpretation). Dass die Dinge in diesem Sinne weiter getrieben werden, damit ist fest zu rechnen. Es wird dabei einerseits an der Verfeinerung von bestehenden Modellen gearbeitet werden, andererseits wird es Paradigmenwechsel im Sinne von Thomas Kuhn geben. Leute, die behaupten, dass das naturwissenschaftliche Weltbild bereits alles erklärt, überschätzen sich und ihren Wissensstand ganz erheblich. Welcher Naturwissenschaftler kann schon sagen, was vor dem Urknall war, warum es den Kosmos und das Leben gibt, warum die Naturkonstanten bestimmte Werte haben, usw.

Wie schwierig es damals Hofstadter und Dennett selbst hatten, um vom damaligen Wissenstand aus zu extrapolieren, zeigt der Text am Ende des Buches. Auf fast 30 Seiten wird eine imaginäre Unterhaltung mit Einsteins Gehirn beschrieben. Da Einstein bekanntlich sein Gehirn der wissenschaftlichen Forschung zur Verfügung gestellt hat, wird hier angenommen, dass ein Neurowissenschaftler jedes einzelne Neuron in dem in einer Nährflüssigkeit aufbewahrten Gehirn vermessen hätte und seine elektrischen und chemischen Eigenschaften in einem Buch dokumentiert hätte. Es hätte den Umfang von Milliarden von Seiten. Außerdem gäbe es Umwandlungs­tabellen, mit deren Hilfe man den Inhalt der Neuronen erschließen könnte. Dass der Inhalt nur ein Schnappschuss von Einsteins Todestag ist, wo er evtl. über Geh­beschwerden klagte, wird noch angedeutet, der Rest bleibt im Dunkeln. Natürlich hat sich an den Größenordnungen nichts geändert, nur würde heute kein Wissen­schaftler auf die Idee kommen, den Inhalt eines einzelnen Chromosoms, von denen es pro Körperzelle 24 gibt, auf Papier auszudrucken. Wenn ich mich recht erinnere, hätte dies bereits 500.000 Seiten Papier benötigt. Die Idee, sich mit einem großen Datenspeicher zu unterhalten, ist heute jedoch kein Stoff für Science-Fiction-Romane mehr. 

Der philosophische Streit über das Leib-Seele-Problem (richtiger als das Körper-Geist-Problem bezeichnet) neigt sich immer stärker in die Richtung des Monismus. Zu stark sind die Indizien, die sich nicht anders erklären lassen, etwa die Wirkung von Alkohol, Drogen oder Psycho- und Neuropharmaka. Noch wissen wir aber sehr wenig darüber, wie sich geistige Zustände tatsächlich manifestieren. Das hängt meines Erachtens damit zusammen, dass wir viel zu wenig darüber wissen, welche Rolle Information im Gehirn spielt, wie sie mit Bedeutung versehen, strukturiert und wiedergefunden wird. Vermutlich werde ich auf dieses Thema irgendwann zurückkommen.

Samstag, 25. Juni 2011

Empirische Studien in der Informatik

Am 24.6.2011 schrieb Walter Tichy aus Karlsruhe:

dieses Interview mit Dag Sjoberg wird Sie wahrscheinlich interessieren. Dag führt Untersuchungen mit Hunderten professionellen Software-Entwicklern durch:
In der Tat spricht hier ein Verwandter im Geiste. Ich habe die Arbeiten der norwegischen Gruppe um Dyba, Sjoberg et al. schon länger verfolgt. Sie vertreten genau die Strategie, die im Endres/Rombach-Buch von 2003 propagiert wird. Selbst ihre Terminologie deckt sich exakt mit den von uns in der Einleitung definierten Begriffen. Sehr gut an dem Interview finde ich, dass Sjoberg immer wieder Analogien zu andern Fachgebieten heranzieht. Ich tue dies auch gerne, nur passen nicht immer alle Analogien gleich gut.

Nun zu den Kernaussagen des Interviews. Wenn dabei Sjobergs Aussagen in der Paraphrase etwas überspitzt herüber kommen, so ist dies Absicht.

  • Wissenschaft ohne empirische Daten ist keine Wissenschaft. Dabei müssen die Daten von den tatsächlichen Nutzern einer Methode oder eines Werkzeugs kommen. Sjoberg verweist auf die Pharmaindustrie, wo der Feldtest für genauso wichtig angesehen wird wie die Entwicklung von neuen Produkten. Dort darf man neue Medikamente nicht an beliebigen Personen testen, sondern nur an solchen mit bestimmten Krankheitssymptomen.
  • Experimente mit Studenten haben nur eine geringe Überzeugungskraft. Man kann Medikamente zwar an Mäusen vortesten, letztendlich muss man sie an Menschen testen. Wird ein neues Auto von einem Fahrschüler (sprich Studenten) oder einem Fachjournalisten (sprich Akademiker) getestet, ist das etwas anders, als wenn ein Taxi- oder Formel-1-Fahrer (sprich Praktiker) dies tut.
  • Empirische Studien können und dürfen Geld kosten. Auch das weiß die Pharmaindustrie schon lange.
  • Theorie ist enorm wichtig. Gemeint ist die Art von Theorie, die Beobachtungen erklärt. Hier erinnere ich an den schönen Spruch von Henri Poincaré, den ich neulich im Unzicker-Buch fand: „Die Wissenschaft ist aus Fakten gebaut, wie ein Haus aus Steinen. Eine Ansammlung von Fakten ist so wenig Wissenschaft wie ein Haufen Steine ein Haus ist.“ Ohne Theorie lassen sich Beobachtungen nicht vernünftig planen, einordnen und die Ergebnisse einprägen. Unser Wissen besteht primär aus Theorien (manchmal auch nur aus nicht widerlegten Hypothesen).
  • Die Theorien, die die Informatik benötigt, kommen zum geringsten Teil aus der Mathematik, da die Mathematik nicht die Natur erklärt (d.h. sagt, warum etwas geschieht), sondern sie bestenfalls beschreibt. Um über Theorien reden zu können, sollten wir ihnen einprägsame Namen geben.
  • Kollegen, die empirisch gewonnene Erkenntnisse ablehnen, wenn immer es Gegenbeispiele gibt, denken zu mathematisch. Für die Widerlegung der Fermatschen Vermutung reicht dies, nicht aber in den Disziplinen, die es mit dem Leben zu tun haben (wozu man die Informatik rechnen sollte). Wirkt ein Medikament in 80% der Fälle, ist dies sehr gut. Für die andern 20% versucht man halt etwas anderes. Genauso falsch ist es anzunehmen, dass man alle essentiellen Fragen unseres Feldes allein durch Draufschauen (sprich Messen) lösen kann (wie Bertrand Meyer dies wohl erhofft hatte). Etwas nachdenken muss man auch noch. Ganz ohne Beobachten landet man aber unter Umständen in Wolkenkuckucksheim.
Das Interview ist wirklich ein Genuss. Komplement auch an den Interviewer!

Dienstag, 21. Juni 2011

Unternehmer und Erfinder aus der Informatik (Teil I)

In einem früheren Beitrag hatte ich meine Sorge darüber ausgedrückt, dass es in Deutschland möglicherweise an Vorbildern mangle, die junge Menschen dazu anregen könnten, eine Karriere als Informatikerin oder Informatiker anzustreben. Nach einigem Nachdenken fiel mir dann doch eine ganze Reihe von Namen ein, die man in Betracht ziehen sollte. Ich gebe sie im Folgenden wieder. Es sind allerdings weder Frauen noch Leute unter 30 Jahren dabei.

Andreas von Bechtolsheim (1955- ) Elektrotechniker (der TU München, mit Schwerpunkt Datenverarbeitung); ging 1975 als Fulbright-Stipendiat an die Carnegie-Mellon University in Pittsburg.PA; erwarb MS in Computer Science: Gründete 1982 die Firma Sun Microsystems in Kalifornien, zusammen mit Bill Joy und Scott McNealy. War einer der ersten Investoren in StarOffice und Google.

Gerd Binnig (1947- ) promovierter Physiker Uni Frankfurt; als Mitarbeiter des Forschungslabors Zürich der IBM entwickelte er mit Heinrich Rohrer zusammen 1981 das Rastertunnelmikroskop. Im Jahr 1986 erhielten Binnig und Rohrer zusammen mit Ernst Ruska den Nobelpreis für Physik. Binnig entwickelte anschließend das Rasterkraftmikroskop. Im Jahr 1994 gründete er die Firma Delphi2 Creative Technologies GmbH, die später umbenannt wurde in Definiens GmbH, heute Definiens AG mit Sitz in München. Aus ihr ging die Definiens Imaging GmbH hervor, die mit der Software eCognition Erfolge im Bereich objektbasierter Bildklassifikation vorweist.

Karlheinz Brandenburg (1954- ) promovierter Elektrotechniker Uni Erlangen; entwickelte um 1986 das MP3-Dateiformat zur Audiodatenkompression, zusammen mit andern Wissenschaftlern des Fraunhofer-Instituts Erlangen. Er ist außerdem für seine grundlegenden Arbeiten im Bereich der Audiocodierung, der Wahrnehmungsmessung, der Wellenfeldsynthese und der Psychoakustik bekannt. Bekleidet seit dem Jahre 2000 den Lehrstuhl für Elektronische Medientechnik an der Technischen Universität Ilmenau.

Ernst Denert (1942- ) promovierter Informatiker TU Berlin; war von 1976-1982 bei der Firma Softlab in München als Projekt- und Abteilungsleiter tätig; gründete 1982 zusammen mit Ulf Maiborn die Firma sd&m AG in München, und war bis 2001 deren Geschäftsführer und Vorstandsvorsitzender. Nach Veräußerung der Firma an Cap Gemini engagierte er sich bis Ende 2009 bei der IVU Traffic Technologies AG, Berlin, als Vorstandsvorsitzender. Seit 1989 vergibt die Ernst Denert-Stiftung jährlich den Software-Engineering-Preis. Seit 1991 ist Denert Honorarprofessor an der TU München. Er war von 1996-1997 Vizepräsident der GI, ein Amt, das er zurzeit wieder ausübt.

Peter Dietz (1933- ) Physiker RWTH Aachen, an Uni Dortmund in Informatik promoviert; war von 1968 bis 1983 geschäftsführender Gesellschafter der Dietz Computer-Systeme in Mülheim an der Ruhr. Entwickelte, fertigte und vertrieb erfolgreich Computer und computergestützte Systeme für die Prozessdaten-Verarbeitung und die mittlere Datentechnik. Von 1975 bis 1980 Mitbegründer und zeitweiliger Vorsitzender einer deutschen und einer europäischen Vereinigung kleiner und mittler IT-Unternehmen. Heute Geschäftsführer des Wagniskapitalgebers TakeOff VC Fund, der primär in IT-Startups investiert. Sein Buch Aufbruchsjahre‘ (Bonn 1995) beschreibt das „Goldene Zeitalter der deutschen Computerindustrie“.

Ralph Dommermuth (1963- ) Bankkaufmann; Gründer und Vorstandsvorsitzender der United Internet AG mit Sitz in Montabaur. Startete 1996 den Internet-Service-Provider 1&1. Betreibt unter anderem die E-Mail-Dienste von WEB.DE und GMX, welche über Online-Werbung finanziert werden. Hat weltweit 26 Mio. Kunden und 4.500 Mitarbeiter.

Christof Ebert (1964- ) promovierter Informatiker Uni Stuttgart; arbeitete seit 1994 bei Alcatel-Lucent, zuerst in Stuttgart, ab 1996 in Antwerpen und ab 2001 in Paris. Als Direktor im Bereich der Produktentwicklung hatte er die konzernweite Verantwortung für Softwareplattformen, Entwicklungsprozesse und -werkzeuge. Für seine Ergebnisse in Produktivitätsverbesserung, Product Lifecycle Management und CMMI wurde er zum Mitglied der Alcatel Technical Academy ernannt. Seit 2006 ist er Geschäftsführer und Partner der Consulting-Firma Vector Informatik in Stuttgart. Ebert hat einen Lehrauftrag an der Universität Stuttgart, referiert häufig für die Deutsche Informatik-Akademie und verfasste verschiedene Fachbücher sowie über 150 wissenschaftliche Publikationen. Er ist einer der Herausgeber von IEEE Software.

Karl Ganzhorn (1921- ) promovierter Physiker Uni Stuttgart; gründete 1958 das Entwicklungslabor der IBM in Böblingen und leitete ab 1964 eine Gruppe europäischer Labors der IBM. Von 1973 bis 1975 war er Direktor für Wissenschaft und Technologie der IBM Europa. Danach war er von 1975 bis 1978 Vizepräsident für Telekommunikationssysteme der Systems Communications Division der IBM Corporation. Er war 1970/71 Präsident der Deutschen Physikalischen Gesellschaft. Von 1978 bis 1987 gehörte er dem deutschen Wissenschaftsrat an. Seit dem Jahre 1986 ist er im Ruhestand. [Angegebener Link verweist auf ausführliche Würdigung in diesem Blog]

Peter Grünberg (1939- ) promovierter Physiker am Forschungszentrum Jülich; erhielt Physik-Nobelpreis 2007 für die Entdeckung des Riesenmagnetwiderstands (GMR-Effekt). Das 1988 von ihm patentierte Verfahren wird seit Mitte der 90er-Jahre in allen gängigen Festplatten genutzt und brachte den Durchbruch zu Giga-Byte-Festplatten. 

Heinz Gumin (1928-2008) promovierter Mathematiker Uni Münster; leitete ab 1966 den Geschäftsbereich Datenverarbeitung der Siemens AG und war von 1969 bis 2002 Vorstandsmitglied. War von 1973-1977 Präsident der Gesellschaft für Informatik (GI). [Angegebener Link verweist auf ausführliche Würdigung in diesem Blog]

Hans-Olaf Henkel (1940- ) Betriebswirt FH Hamburg. Seit 1962 war er bei der IBM Deutschland in verschiedenen Managementfunktionen tätig, 1987 wurde er dort zum Vorsitzenden der Geschäftsführung berufen. Von Mitte 1993 bis Ende 1994 war er Chef der IBM Europa, Mittlerer Osten und Afrika mit Dienstsitz in Paris. Von 1995 bis 2000 war er (im Ehrenamt) Präsident des Bundesverbandes der Deutschen Industrie (BDI) und wurde durch seine Direktheit und kontroversen Standpunkte bekannt. Er war ständiger Gast bei vielen Talk Shows im Fernsehen. Von 2001 bis 2005 war Henkel Präsident der Leibniz-Gemeinschaft, einem Zusammen­schluss außeruniversitärer Forschungseinrichtungen. Henkel ist Autor einer Vielzahl von Büchern zu aktuellen politischen und gesellschaftlichen Themen.

Dietmar Hopp (1940- ) Nachrichtentechniker Uni Karlsruhe. War seit 1966 bei der IBM Deutschland tätig. Arbeitete zunächst als Software-Entwickler im Labor Böblingen. Von 1968 bis 1972 war er in der Mannheimer Niederlassung als Systemberater tätig. Gründete 1972, zusammen mit Hasso Plattner, Klaus Tschira und anderen, das Softwareunternehmen Systemanalyse und Programmentwicklung, mit Sitz in Walldorf, aus dem 1988 die SAP AG wurde, deren Vorstandsvorsitzender er von 1988 bis 1998 war. Danach war er bis 2003 Vorsitzender des Aufsichtsrats und bis Mai 2005 dort einfaches Mitglied. Hopp hielt 2006 immer noch einen signifikanten Anteil der Aktien von SAP und gilt als einer der reichsten Deutschen. Sein Vermögen wird vom Forbes-Magazin auf mehr als 4 Milliarden Euro geschätzt. Durch seine Stiftungen und sein Mäzenatentum vor allem im Sportbereich ist er inzwischen öffentlich sehr bekannt.

Kristof Klöckner (1956- ) promovierter Mathematiker Uni Frankfurt; begann seine Berufskarriere 1984 im IBM-Labor Böblingen. Sein erstes Arbeitsgebiet war die Systemleistungs­analyse. Später war er Leiter des Programmentwicklungszentrums Sindelfingen sowie des englischen Labors in Hursley. Als Vizepräsident der IBM Corporation war er mehrere Jahre lang verantwortlich für das Cloud Computing der IBM. Zurzeit ist er General Manager der Rational Software Division mit Sitz in Somers, NY. Klöckner ist Honorar­professor der Universität Stuttgart, wo er im Wintersemester 2010 zum Thema ‚Cloud Computing and Service Management’ gelesen hat. [Der erste angegebene Link verweist auf ein Interview in diesem Blog]

Klaus Neugebauer (193x- ) promovierter Betriebswirt, gründete 1971, zusammen mit Gerhard Heldmann und Peter Schnupp, in München die Firma Softlab. Sie wurde in den 1970er Jahren eine der bekanntesten deutschen Software-Firmen. Den ersten Produkterfolg gab es mit der Entwicklungsumgebung Pet/Maestro. Softlab erreichte 1978 einen Umsatz von 16,5 Mio. DM bei etwa 200 Mitarbeitern. Von 1992 bis 2008 war der Automobilbauer BMW Alleingesellschafter. Nachdem zwischendurch der Name Softlab in Cirquent geändert worden war, hat die BMW AG den größten Teil ihrer Anteile inzwischen an die japanische Firma NTT Data veräußert.

Heinz Nixdorf (1925-1986) Studium der Physik abgebrochen. Gründete 1952 mit 27 Jahren in Paderborn seine erste Computerfirma, die er später als Nixdorf AG zu einem internationalen und weltweit tätigen Elektronikkonzern mit knapp vier Mrd. D-Mark Umsatz (1986) ausbaute. Seine Kleinrechner stießen in eine Marktlücke vor und konnten sich gegen die Großrechner der Konkurrenz behaupten. Nixdorf wurde in den 1970ern Marktführer in Deutschland im Bereich der Mittleren Datentechnik und viertgrößter Computerhersteller in Europa mit Produktionsstätten in Deutschland, Irland, Spanien, USA und Singapur. Er beschäftigte in seinem Todesjahr 23.300 Mitarbeiter in 44 Ländern.

Hasso Plattner (1944- ) Nachrichtentechniker Uni Karlsruhe. War von 1968–1972 als Systemberater bei der IBM in Mannheim tätig. Gründete 1972, zusammen mit vier Kollegen die Firma SAP, in der er 1979 die Gesamtverantwortung für den Bereich Technik übernahm. Später war Plattner gleichberechtigter Vorstandssprecher der SAP AG neben Dietmar Hopp. Plattner leitete unter anderem das Forschungs- und Entwicklungszentrum der SAP im kalifornischen Palo Alto, das 1998 gegründet wurde. Außerdem nahm er einen Lehrauftrag im Fachbereich Wirtschafts­wissenschaften der Universität Saarbrücken wahr. Als Hopp in den Aufsichtsrat wechselte übernahm der Physiker Henning Kagermann dessen Position im Vorstand. Seit 2003 ist Plattner Aufsichtsratsvorsitzender der SAP AG. Plattner besitzt laut Forbes-Magazin ein geschätztes Vermögen von 6,9 Milliarden US-Dollar. Seit seinem Rückzug aus dem Tagesgeschäft der SAP engagiert sich Plattner als Mäzen. Er gilt als einer der bedeutendsten privaten Wissenschaftsförderer in Deutschland. Im Jahre 1998 gründete er das Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität Potsdam. Anfang Oktober 2005 richtete Plattner mit der Stanford University das „Hasso Plattner Institute of Design“ ein.

Klaus Christian Plönske (1936- ) gründete 1969 das EDV Studio Ploenzke. Wurde 1992 in eine Aktiengesellschaft, die Ploenzke AG, umgewandelt. Das Unternehmen entwickelte sich zu einem der führenden IT-Beratungsunternehmen im deutschsprachigen Raum mit Niederlassungen in Spanien und Portugal. Von 1995 bis 1999 verkaufte Plönzke sein Unternehmen sukzessive an die amerikanische Computer Sciences Corporation (CSC) und gab anschließend den Vorstandsvorsitz der CSC Ploenzke AG ab.

Horst Remus (1928-2007) Mathematiker Uni Hamburg; baute ab 1960 die Software-Gruppe im IBM Labor Böblingen auf. Ging 1965 nach Nizza und 1970 in die USA. Leitete zuerst das IBM Software-Center in Raleigh, NC, später einen Bereich des Software-Centers in Santa Teresa, CA. [Angegebener Link verweist auf ausführliche Würdigung in diesem Blog].

Stephan Schambach (1970- ) Gründete 1992 die Firma Intershop in Jena; bot als eine der ersten Software für Internet-Handel an; ging an die Börse; erreichte sagenhafte Kurswerte; gründete Niederlassung in den USA; Aktienkurs stürzte nach der Internet-Blase ab; entging nur knapp dem Konkurs; Firma überlebte als Dienstleister. Schambach stieg 2003 aus der Firma Intershop aus. Lebt heute in Boston, MA.

August Wilhelm Scheer (1941- ) wurde 1972 an der Universität Hamburg in BWL promoviert und habilitierte sich 1974, ebenfalls in Hamburg, mit einer Arbeit zum Thema Projektsteuerung. Er übernahm 1975 den Lehrstuhl für Wirtschaftsinformatik an der Universität des Saarlandes. Er gründete 1984 als Spin-off seines Instituts die IDS Scheer AG und 1996 die IMC AG. Er ist Hauptgesellschafter und Aufsichtsrats­vorsitzender beider Gesellschaften. Er schuf die wissenschaftliche Grundlage für das ARIS-Konzept. Das darauf basierende ARIS-Toolset wird von IDS Scheer entwickelt und vertrieben. Die Firma IDS Scheer ist seit 2010 in der Software AG aufgegangen. Scheer war mehrfach Mitglied des Aufsichtsrats der SAP AG. Von 2007 bis 2011 war er Präsident des Bundesverbandes Bitkom. Seit 2005 ist er Fellow der Gesellschaft für Informatik. Außerdem ist er versierter Saxophonist.

Peter Schnell (1938- ) promovierter Mathematiker TU Darmstadt; ist einer von insgesamt sechs Gründern der aus dem AIV (Institut für angewandte Informationsverarbeitung) hervorgegangenen Software AG in Darmstadt und war viele Jahre deren Vorstandsvorsitzender. Schnell hat das Datenbank-Management-System Adabas (Adaptable Database System) konzipiert und entwickelt. Adabas kam vor allem bei Großrechnern der IBM und der Siemens AG zum Einsatz. Als er 1996 aus dem Vorstand der Software AG ausschied, umfasste die Software AG 28 Tochterunternehmen in 80 Ländern. Beschäftigt wurden über 3.300 Mitarbeiter/innen. Die Umsatzerlöse betrugen damals ca. DM 800 Millionen. Adabas wird inzwischen auch auf den Betriebssystem-Plattformen VMS von DEC und verschiedenen Unix-Systemen, Linux sowie Windows eingesetzt. Peter Schnell ist Stifter der Software AG Stiftung, eine der größten privaten Stiftungen in Deutschland mit Sitz in Darmstadt. Er ist Anthro­posoph und die Stiftung fördert auch viele Projekte aus dem Umfeld der Anthroposophie, so die Universität Witten-Herdecke und die Alanus Hochschule in Bonn.

Peter Schnupp (193x- ) promovierter Physiker. Mitbegründer der Firma Softlab in München. Gründete 1984 die Firma InterFace AG, ebenfalls in München. Das Unternehmen machte sich einen Namen im Bereich Software-Entwicklung, Beratung und Schulung, besonders in Unix-Markt. Zurzeit ist Schnupp freier Unternehmensberater in Hoyerswerda.

Heinz Schwärtzel (1936- ) promovierte in Mathematik an der Uni Linz; wurde 1961 Mitarbeiter im Zentrallabor der Siemens AG in München, später wurde er Vizepräsident Forschung und Entwicklung und Leiter der zentralen Forschungslaboratorien der Siemens AG (ZFE, ZT) in München-Neuperlach. Schwärtzel ist Mitbegründer und Vorstand von FAST München, einem Forschungsinstitut für Angewandte Softwaretechnologie. FAST ging inzwischen in der Cirquent-Softlab-Gruppe auf. Schwärtzel  ist Honorarprofessor der TU München sowie der Johannes Kepler Universität Linz. Von 1987 bis 1991 war er Präsident der Gesellschaft für Informatik. Auf seine Initiative hin wurde das Internationale Begegnungs- und Forschungszentrum für Informatik (IBFI) in Schloss Dagstuhl bei Wadern/Saarland eingerichtet (jetzt Leibniz-Zentrum für Informatik).

Klaus Tschira (1940- ) Physiker Uni Karlsruhe. Er war von 1966 bis 1972 als Systemberater bei der IBM in Mannheim tätig. Im Jahre 1972 gründete er zusammen  mit Dietmar Hopp und Hasso Plattner und anderen die spätere SAP. Tschira galt in der Firma als der Experte für Mainframe-Betriebssysteme. Er war lange Jahre Mitglied des Vorstands und von 1998 bis 2007 Mitglied des SAP-Aufsichtsrats. Als Mäzen betreibt er das Europäische Medienlabor in Heidelberg und unterstützt Firmengründer. 

Konrad Zuse (1910-1995) Bauingenieur; im Jahre 1941 baute er den ersten vollautomatischen, programmgesteuerten und frei programmierbaren Rechner der Welt; mit binärer Gleitkommarechnung. Gründete 1949 die Firma Zuse KG, die den Rechner Z22 und den Graphomaten Z64 vor allem an Hochschulen und Behörden vertrieb. Im Jahre 1964 stieg er aus der Firma aus. War nebenher als Maler aktiv.

Die hier wiedergegebenen Informationen beruhen ausschließlich auf öffentlich zugänglichen Quellen, meist aus dem Internet, nicht selten aus Wikipedia. Ich gehe davon aus, dass diese Liste von 25 Namen noch sehr unvollständig ist. Deshalb nehme ich gerne Vorschläge entgegen, die ich dann hinzufügen würde. Außerdem habe ich bereits einige Namen in peto, bei denen ich allerdings noch zuerst die Daten zusammen­tragen muss. Sollte ich in nächster Zeit hinreichend Material haben, wird es einen Teil II der Liste geben. Versprechen kann ich es noch nicht.

Wie zu erwarten, handelt es sich bei den meisten der oben genannten Kollegen um Quereinsteiger, typischerweise Elektrotechniker, Mathematiker oder Physiker. Die Art von Leistungen, wie sie von diesen Kollegen erbracht wurden, will die GI mit dem wiederbelebten Innovations- und Entrepreneurpreis auszeichnen. Auf der Liste bekannter Informatiker, wie sie die Universität Leeds in England veröffentlicht (siehe S. 109 im Endres/Gunzenhäuser-Buch), erscheint bis jetzt nur Konrad Zuse. Etwa ein Dutzend deutsche Kollegen schafften es bisher auf die Honor Roll der IT History Society. Kinofilme über die Lebensleistung einzelner gibt es in Deutschland noch nicht. Was nicht ist, kann vielleicht noch werden.

Freitag, 17. Juni 2011

Informatik zu studieren ist wieder cool

Manchmal lohnt es sich bei Nachrichten, die über den großen Teich kommen, genauer hinzuhören. Jahrelang war zu hören, dass das Interesse an Natur- und Ingenieurwissenschaften (engl. science, technology, engineering, mathematics, abgekürzt STEM) im Argen liegt. Jetzt kommt eine gute Nachricht: Informatik zu studieren ist wieder attraktiv. Der Grund seien der Erfolg von Steve Jobs mit Apple und von Mark Zuckerberg mit Facebook, aber auch die Erfolge von Larry Page und Serge Brin von Google. Eine besondere Wirkung scheint von dem Film ‚The Social Network‘ auszugehen, der die Lebensgeschichte des heute 27 Jahre alten Zuckerberg erzählt. Der Sohn eines Zahnarztes aus White Plains, NY, hatte zwar ein Informatikstudium begonnen, es jedoch abgebrochen. Page und Brin haben ein abgeschlossenes Studium, nur ihre Promotion blieb auf der Strecke.

Mit dem Adjektiv ‚cool‘ bediene ich mich eines Begriffs, der bei uns den Weg von der Jugend- in die Umgangssprache geschafft hat. Er drückt eine sehr positive Bewertung aus, allerdings etwas locker. Auch die New York Times verwendet den Ausdruck in der (englischen) Überschrift eines Artikels zu diesem Thema. Von einem neuen Sputnik-Effekt spricht sogar einer ihrer Informanten. Bei einigen amerikanischen Universitäten, so Harvard und Stanford, soll sich die Zahl der Studienanfänger seit dem Jahr 2008 mehr als verdoppelt haben. Da die Bewerber eine bessere Motivation und mehr Vorkenntnisse mitbringen als Ende der 1990er Jahre, nimmt man an, dass es sich nicht nur um eine kurzfristige Blase handelt. 

Wie GI-Präsident Stefan Jähnichen im November 2010 feststellte, gibt es auch in Deutschland einen, wenn auch bescheidenen Aufwärtstrend bei den Studien­anfängern in Informatik (4% gegenüber Vorjahr). Die Frage ist, ob der oben erwähnte viel stärkere Zuwachs nur rein amerikanische Gründe hat – wobei der Wunsch Milliardär zu werden nicht allzu ernst genommen werden darf. Leider haben wir keinen Steve Jobs und keinen Mark Zuckerberg, sondern nur den Konrad Zuse, und der wäre heute über 100 Jahre alt, würde er noch leben. Dass er im Moment für die Informatik-Werbung entdeckt wurde, deutet auf eine gewisse Armut bezüglich jüngerer Vorbilder hin. Ähnlich wie bei uns für die MINT-Studiengänge, so wird auch in den USA verstärkt für die STEM-Fächer geworben. Sollte dies die Ursache für die Trendwende in den USA sein, so können wir hoffen, dass sie sich bei uns etwas zeitverschoben auswirkt, also 2-3 Jahre später als in den USA.

Auch die Idee einiger amerikanischer Universitäten, den Studiengang ‚Computer Science‘ neu zu überdenken, finde ich beachtlich. Nicht das Handwerk des Programmierens steht dabei im Vordergrund, sondern die tollen Dinge, die man mit Rechnern oder Robotern machen kann. Ist man davon angetan, lernt man auch noch das Programmieren, oder aber lässt es von andern Leuten machen. In einem anderen Beitrag hatte ich diese Thematik bereits angeschnitten und auf die Aussage zugespitzt, dass Deutschland keine Programmierer mehr benötigt, sondern nur noch Systemarchitekten.

Ob unsere Hochschulen diese Änderung in den Anforderungen erkannt haben, weiß ich nicht. Noch bin ich mir im Klaren, ob man bereit und in der Lage ist, die nötigen Konsequenzen zu ziehen. Als Aufklärung Jugendlicher reicht es nicht ihnen zu verkünden, dass Rechner inzwischen fast überall drin sind. Das wissen sie längst. Genauso witzlos ist es, immer wieder zu erklären, was Informatik ist  Entscheidend ist ihnen zu sagen, wofür man bei uns in Zukunft die Informatik nutzen will.

Es ist längst erwiesen, dass vor allem Mädchen sich vom Nutzen einer Tätigkeit her ansprechen lassen. Nur bei Jungen soll auch der Spieltrieb (auch Freude an der Technik genannt) eine Rolle spielen. Auf empirische Belege für diese Aussage wurde im Informatik-Spektrum im Jahre 2007 verwiesen. Die Aussicht, zunächst trockene Theorie büffeln zu müssen, hat schon immer Jungen wie Mädchen abgeschreckt – vor allem wenn man nicht versteht, wozu sie benötigt wird. Welche unserer Hochschulen wirbt schon damit, dass man bei ihr lernen kann, welche Apps die Nutzer in Zukunft haben möchten, oder was dem Autobauer, dem Fernfahrer, dem Pizzabäcker, dem Touristen, dem Studierenden, dem Rentner oder dem Kranken helfen könnte? Zum Helfen gehört, dass man andern Menschen das Leben leichter macht oder angenehmer gestaltet.

Wenn der GI-Präsident vor kurzem in einer GI-Glosse angab, dass er zehn Gründe kenne, warum jemand Informatik studieren soll, ist es erstaunlich, dass dieser Grund ihm dabei nicht einfiel. Zu seinen Gunsten hoffe ich, dass ihn nicht die Angst bewegte, sich zu weit vorzuwagen, sondern dass es für ihn zu selbstverständlich war, um es zu erwähnen. Zwei Sätze aus dem oben erwähnten Beitrag im Informatik-Spektrum darf ich daher in Erinnerung rufen:

Aus Sicht der Praxis besteht [das Ziel des Informatik-Studiums] bekanntlich darin, das Planen, Entwickeln, Bewerten, Einführen und Pflegen von Informatik-Systemen zu erlernen. Natürlich sind alle dafür relevanten Fähigkeiten und Techniken auch weiterhin unverzichtbar. Sie sind aber nicht Selbstzweck, sondern werden eingesetzt als Mittel zur Lösung von wirtschaftlich oder gesellschaftlich relevanten Aufgaben.

Generell fehlt es nicht an Leitfiguren, nur kommen sie in Deutschland derzeit vorwiegend aus Politik, Sport, Literatur, Kunst und Unterhaltung. Aus der Informatik kämen erfolgreiche Unternehmens­gründer, Pioniere neuer Anwendungen, sowie Entwickler und Erfinder in Frage, wobei Frauen noch in der Minderzahl sein dürften.

PS. Dies war Eintrag Nummer 74 in diesem Blog. Er stammt vom GI-Mitglied Nummer 0074. Soviel der Zahlenmystik.

Nachtrag: Auch zur Frage der Leitbilder habe ich mir später etwas einfallen lassen. Lesen Sie bitte die Beiträge vom 21.6.2011 und 3.7.2011 betitelt ‚Unternehmer und Erfinder aus der Informatik‘

Mittwoch, 15. Juni 2011

Unzickers Tiraden auf den Wissenschaftsbetrieb

Nach mehrmaligen Empfehlungen von Kollegen habe ich inzwischen das Buch 'Vom Urknall zum Durchknall' von Alexander Unzicker gelesen. In der Beurteilung kann ich mich ganz der Rezension im Spektrum der Wissenschaft anschließen. Auch der zweite Kundenkommentator bei Amazon vermittelt einen ähnlichen Eindruck. Wenn man Lee Smolin und Bob Laughlin nicht gelesen hatte, kann man in der Tat beeindruckt sein. Unzicker haut derart kräftig auf Astronomie und Physik ein, dass man glauben muss, es mit einem einzigen riesigen Sumpf zu tun zu haben. Einerseits habe die Wissenschaft den Bezug zur Realität verloren, anderseits werde ihr Publikationsbetrieb nur noch von Seilschaften bestimmt. Nur ein Münchner Gymnasiallehrer wie er, der nicht am Tropf öffentlicher Forschungsförderung hängt, traut sich zu dies auch zu sagen und zu schreiben.

Das Buch ist gespickt mit Zitaten, Sinnsprüchen und Witzen. Diese allein können das Lesen rechtfertigen. Nachfolgend eine kleine Kostprobe, die ich mir merkte (in Klammern der Urheber, soweit angegeben):
  • Kosmologen sind oft im Irrtum, aber nie im Zweifel (Lev Landau)
  • Seit 75 Jahren jagt man der Dunklen Materie hinterher, ohne sie zu finden.
  • Die Dunkle Materie besteht natürlich aus Teilchen, von denen jedes mindestens die Masse unserer Sonne hat.
  • Mathematische Physiker haben es leicht. Aus der Sicht der Mathematik tun sie etwas sehr Nützliches. Aus Sicht der Physik dürfen sie alles tun, haben aber keine Verantwortung.
  • Simulationen des Kosmos sind dann am leichtesten zu machen, wenn man die baryonische Materie, also auch das letzte Stück Realität, weglässt.
  • Das MPI in Garching hat gerade die Entstehung des Kosmos simuliert. Aber um die Entstehung eines einzelnen Sterns, etwa unserer Sonne, zu simulieren, dazu reichen ihre Rechner noch nicht aus.
  • Da wo es keine Daten gibt, wird simuliert. Das geht besonders gut da, wo man auch nichts sehen kann, etwa in der Frühzeit des Kosmos, bevor sich das Licht ausbreiten konnte.
  • Jeder Narr kann die Dinge komplexer machen. Es gehört erheblich mehr Mut dazu, sich in die entgegengesetzte Richtung zu bewegen (Albert Einstein).
  • Computer sind nutzlos. Sie können nur Antworten geben (Pablo Picasso).
  • Die Wissenschaft ist aus Fakten gebaut, wie ein Haus aus Steinen. Eine Ansammlung von Fakten ist so wenig Wissenschaft wie ein Haufen Steine ein Haus ist (Henri Poincaré).
  • Die Stringtheorie ist 40 Jahre alt, so wie die DDR, nur ist noch kein Gorbachow in Sicht.
  • Mathematiker sind billiger als Physiker. Sie benötigen nur Papier, Bleistift und Mülleimer. Stringtheoretiker sind noch billiger. Sie benötigen nur Papier und Bleistift. NB: Es gibt über 6000 Veröffentlichungen zur Stringtheorie.
  • Preise suchen unerbittlich ihre Träger (Gerhard Polt). NB: Der Leibnizpreis ging bereits an einen Stringtheoretiker.
  • Keine Theorie sollte versuchen, alle Daten zu erklären. Denn bestimmt sind einige davon falsch (Richard Feynman).
  • Der Rechner hat sich gegenüber dem Denken durchgesetzt. Die Kontakte zur Beobachtung gingen verloren.
  • Würden Sie einem Mediziner trauen, der verspricht, ein Heilmittel gegen sämtliche Krankheiten zu entwickeln? Physiker aber dürfen nach der einheitlichen Weltformel suchen.
Hier noch ein paar weitere Zitate, die meinem Freund Hans Diel gefielen:
  • Der große Haken an den Simulationen ist, dass wir nicht sicher sein können, ob die zu Grunde liegenden Gleichungen [der Gravitation] überhaupt  stimmen.
  •  Wahrscheinlich befördern also die schön animierten Resultate nur unsere Illusion, wir hätten etwas verstanden.
  • Die Kernphysik liefert zwar Hunderte von Messwerten, aber keinen davon kann man wirklich berechnen.
  • Diejenigen unter Ihnen, denen Beweise durch Nichtsehen noch nicht verdächtig erscheinen, darf ich vielleicht darauf aufmerksam machen, dass man mit dem gleichen Recht behaupten könnte, das frühe Universum sei voller Weihnachtsmänner gewesen − nur durch den (un-) glücklichen Umstand der Inflation sehen wir sie so selten.
  • Statt als Beschreibung der Natur versteht sich die Physik immer mehr als Ideengeber für StarTrek.
  • Warum fallen alle Gegenstände nach unten? - Die die nach oben fallen, sind schon weg.
  • Die Intellektuellen machen aus Theorien Ideologien. Selbst in der Physik gibt es leider viele Ideologien. … Wer nicht mit der Mode geht, der steht außerhalb des Kreises derer, die ernst genommen werden (Karl Popper).
Wie gesagt, eine umfangreiche Sammlung von Aphorismen und Bonmots.

Donnerstag, 9. Juni 2011

Eric Kandel und das Leib-Seele-Problem

Am 4.6.2011 schrieb mir Peter Hiemann:

ich erinnere mich, dass Sie mir einmal Kandels Buch empfahlen. Das Buch hat damals sicher mein Interesse für Neurobiologie geweckt bzw. bestärkt. Der Dokumentarfilm [letzte Woche bei Arte] mit Kandel zum gleichen Thema wie das Buch [‚Auf der Suche nach dem Gedächtnis‘] hat zwar keine neuen Erkenntnisse für mich erbracht, aber die Person Kandel zu sehen, ist ein Erlebnis für sich. Vielleicht geht es Ihnen ähnlich.

Da mich Eric Kandel sowohl als Person als auch wegen seines wissenschaftlichen Werks schon früher faszinierte, war bei mir treu dem Diktum von Kandel – bereits so viel Vorwissen im Gedächtnis, dass der Film viele Resonanzen anklingen ließ. Er ist 94 Minuten lang, in englischer Sprache mit deutschen Untertiteln. Da Kandel selbst ein sehr europäisches Englisch spricht, ist auch das Original leicht zu verfolgen. Der Film ergänzt in vorzüglicher Weise die Autobiografie von Kandel, ein Buch, das ich nicht nur empfahl, sondern auch mehrfach an meine Freunde und Kinder verschenkte.

Der Film der Regisseurin Petra Seeger veranschaulicht Werk, Lebensgeschichte und Persönlichkeit von Eric Kandel, und das mit allen Mitteln, die einem Film zur Verfügung stehen. Er zeigt Bilder von der Arbeit seiner Mitarbeiter im Labor, aber auch öffentliche Reden und Preisverleihungen, insbesondere die des Nobelpreises im Jahre 2000. Der Film lässt immer wieder Kandel selbst zu Wort kommen. Im Rückblick werden Episoden aus der Jugendzeit von Schauspielern eingespielt, werden aber immer wieder von Kandel selbst eingebunden in wissenschaftliche Fragegestellungen. 

So ist die Erinnerung an ein blaues Spielzeugauto mit Drahtsteuerung, das er zum 9. Geburtstag im Jahre 1938 in Wien erhielt, ein Beispiel dafür, dass es Emotionen sind, die Dopamin ausstoßen, durch das die synaptischen Verbindungen verstärkt werden. Ein anderes Beispiel ist die Tatsache, dass seine Frau noch nach 50 Jahren in der Lage ist, den geheimen Fluchttunnel wieder zu finden, der ihr in einem französischen Kloster möglicherweise hätte das Leben retten können, als sie dort vor den Nazis versteckt gehalten wurde. Erst das Gedächtnis macht aus einem Menschen ein Individuum. Es schafft Kontinuität und Kohärenz zwischen verschiedenen Ereignissen im Leben.

Natürlich sind heute alle Arten der Meeresschnecke Aplysia in seinem Labor vorhanden, anhand deren primitiven Gehirn (mit 20.000 Neuronen) er die ersten fundamentalen Untersuchungen vornahm. Aber auch weitergehende Versuche an höheren Tieren mit komplexeren Gehirnen, nämlich Mäusen, werden erklärt. Noch lässt der Schritt zum Menschen (mit 10 hoch 11 Neuronen) viele Fragen offen. Kandels Gruppe hat herausgefunden, welcher chemische Prozess bei Mäusen bewirkt, dass ihre Gehirne weniger schnell degenerieren als die der Menschen. Uns älteren Menschen kann er aber noch keine Hoffnungen machen, das Problem der Alzheimer-Erkrankung bald zu lösen. „Wenn Sie Mäuse wären, könnte ich Ihnen bereits helfen“ sagt er seinen Zuhörern in einem öffentlichen Vortrag.

Kandel fühlt sich mehr der jüdischen Kultur und Tradition verbunden als der jüdischen Religion. Dem Holocaust als historischer Katastrophe ist er nur knapp entronnen, da seine Eltern ihn und seinen 15-jährigen Bruder 1939 allein von Wien nach New York schickten, wo bereits die Großeltern lebten. Seither bewegte ihn die Frage: Wie konnte es dazu kommen, dass Menschen mit einer bewundernswerten kulturellen Geschichte (wie die Deutschen) fähig waren, andere Menschen (die Juden) systematisch zu ermorden? Diese Frage brachte ihn dazu, sich zuerst der Geschichte, dann der Psychoanalyse Freuds und schließlich der neurobiologischen Forschung zuzuwenden. Seine Zeitgenossen hatten sich geschworen, den Holocaust nie zu vergessen, deshalb wollte er auf wissenschaftliche Weise zu erklären versuchen, was lernen und vergessen eigentlich bedeuten.

Dass er bei Besuchen in Wien ohne Schwierigkeiten die Wohnung der Familie und den Laden des Vaters wiederfand, stimmte ihn versöhnlich, ebenso die freundliche Aufnahme durch die Offiziellen der Stadt und des Landes. Einen Kontrast dazu bildete die chaotische Suche nach Erinnerungen an den Kurzwarenladen (engl. haberdasher shop), den sein Vater nach 1939 in Brooklyn betrieb. 

Kandel hatte 1972 nachgewiesen, dass das Kurzzeitgedächtnis (KZG) von Lebewesen auf der Veränderung bereits vorhandener Proteine im Nervensystem beruht, das Langzeitgedächtnis (LGZ) dagegen auf einer Neubildung von Proteinen. Verkürzt gesagt: Das KZG arbeitet chemisch, das LZG entsteht durch biologische Wachstumsprozesse, also eine Veränderung der Struktur des Gehirns. Ich sehe in dieser auf experimentelle Weise gelieferten Erklärung des Gedächtnisses einen ähnlichen Meilenstein wie in der Entdeckung der Doppelhelix durch Crick und Watson im Jahre 1953. Hatten damals viele Biologen gehofft, jetzt das Prinzip des Lebens verstanden zu haben, so stellte sich später immer mehr heraus, dass dies bei weitem nicht ausreichte. Die Dinge sind viel komplizierter als vermutet. Dasselbe Schicksal kann auch Eric Kandel blühen.

Zu behaupten, dass Kandel das Leib-Seele-Problem der Philosophie gelöst habe, also den Dualismus in den Mülleimer verfrachtet, und dem Monismus oder dem Materialismus endgültig zum Durchbruch verholfen habe, ist meines Erachtens noch zu gewagt. Er selbst ist zwar der Überzeugung, dass es nichts mehr als ein uralter Traum der Menschheit ist, das Gedächtnis über den Tod hinaus zur Verfügung zu haben. Hier denkt er als Materialist.

Der heutige Wissensstand erfordert nicht, dass jedem einzelnen Gedanken auch mindestens eine Synapse oder ein Neuron, oder genauer gesagt ein physikalisches, chemisches oder biologisches Korrelat, gegenüberstehen muss. Deshalb frage ich mich, ob unser Gehirn nur sich selbst darstellende Information speichert, oder auch beschreibende Symbole (Bezeichner im Sinne der Linguistik), die zwar materiell codiert sind, deren Bedeutung aber nur durch eine logische, mathematische oder andere geistige Interpretation erschlossen werden kann? Dabei steht das Wort ‚geistig‘ für alles, was nur in einem emotionalen, kulturellen, sozialen oder historischen Kontext Sinn macht. Ein wesentlicher Bestandteil des menschlichen Lernens besteht nämlich darin, sich diese Interpretationsregeln zu merken, einschließlich der dazu gehörenden Begriffshierarchien und Weltbilder.

Sollte es darüber hinaus vielleicht sogar möglich sein, dass das Gehirn nicht nur Daten speichert, sondern sich auch Werkzeuge baut, d.h. dass es sich Mechanismen schafft, mit denen Gruppen von Gedanken reproduziert werden können? Die dazu passende Analogie im Computer ist die Art, wie man dort Funktionen realisiert. Man kann entweder alle Werte voraus berechnen und in einer Tabelle speichern, oder aber eine Formel verwenden, die jeden einzelnen Wert bei Bedarf errechnet. Wie werden überhaupt Strukturen gebildet? Ist das Gedächtnis wirklich nur ein wirres Steckbrett, wo es eine entscheidende Rolle spielt, welcher Zettel neben welchem klebt?

Auch würde es Neurobiologen sicherlich helfen, wenn jemand ihnen zu einem besseren Informationsbegriff verhelfen könnte. Wenn immer sie über Information sprechen, meinen sie meistens nichts anderes als Signale. Leider tun sich hier auch manche Informatiker noch etwas schwer.

Sonntag, 5. Juni 2011

Dieter Rombach über Software-Forschung in Deutschland

Dieter Rombach ist seit 1991 Professor für Software Engineering an der TU Kaiserslautern und der geschäftsführende Direktor des FhG/IESE, dem Fraunhofer-Institut für Experimentelles Software Engineering. Rombach studierte Mathematik und Informatik in Karlsruhe und promovierte 1984 in Kaiserslautern. Von 1984 bis 1991 war er an der University of Maryland. Er leitete von 2006 bis Ende 2009 den Fraunhofer-Verbund Informations- und Kommunikationstechnologie. Daneben ist er als Berater für verschiedene amerikanische und europäische Unternehmen und Behörden tätig. Im Jahre 2003 wurde Rombach zum IEEE Fellow, in 2010 zum ACM Fellow ernannt.


 Bertal Dresen (BD): Ihr Institut ist eines der größten und bekanntesten, auf Software ausgerichteten Forschungsinstitute in Deutschland, vielleicht sogar in der Welt. Welches sind heute Ihre Schwerpunktthemen und Ziele?

Dieter Rombach (DR): Wir beschäftigen uns mit innovativen Methoden zur Konstruktion und Analyse großer Softwaresysteme – sowohl eingebetteter Software als auch Informationssystemen. Im Vordergrund stehen modell-basierte Entwicklungsmethoden mit einem Fokus auf Anforderungs-, Architektur- sowie Test- und Inspektionsmethoden. Bei eingebetteten Systemen stehen Qualitätseigenschaften wie Zuverlässigkeit, funktionale Sicherheit (Safety) sowie Verfügbarkeit im Vordergrund; bei Informationssystemen dagegen Datensicherheit (Security) und Benutzungsfreundlichkeit. Mit derartigen Methoden ermöglichen wir der deutschen software-intensiven Wirtschaft (z.B. Automobilindustrie, Medizintechnik-Industrie und Anlagenbauindustrie) bei immer weiter wachsender Bedeutung von Software einen Vorsprung im weltweiten Wettbewerb. Nur wer auch die in oben genannten Produkten integrierte Software mit entsprechenden Qualitätsgarantien liefern kann, wird auf Dauer im Wettbewerb die Nase vorne haben können!

BD: Sie und Kollegen wie Vic Basili haben den empirischen Ansatz der Software-Forschung in den letzten Jahrzehnten weltweit geprägt. Haben Sie den Eindruck, dass Sie die erhoffte Resonanz gefunden haben? Welche Ergebnisse aus den letzten zehn Jahren sind besonders bemerkenswert? Wo besteht Nachholbedarf? 

DR: Natürlich verläuft die Entwicklung immer langesamer als man dies selbst erwartet und wünscht. Aber insbesondere in kritischen Anwendungsbereichen wird inzwischen die Bedeutung von belastbaren (also quantitativen) Aussagen als immer wichtiger für die Auswahl geeigneter Entwicklungsmethoden und -werkzeuge als auch für Projektplanung und -management angesehen. Auch in großen öffentlichen Forschungsprojekten mit Industriebeteiligung (wie z.B. dem BMBF-Projekt SPES 2020) wird auf die Quantifizierung der Effekte der Projektergebnisse Wert gelegt. Viele der quantitativen Ergebnisse sind in [Endres&Rombach 2003] zusammengefasst. Zu den wichtigsten Ergebnissen gehört sicherlich die Bestätigung, dass systematische Inspektionen in frühen Phasen unter allen Umständen Kosten sparen und Qualität erhöhen. Weitere quantitative Ergebnisse haben den Durchbruch objekt-orientierter Entwurfsverfahren beschleunigt, und die Diskussion über das „ob und wann“ von agilen Entwicklungsverfahren auf ein objektiveres Fundament gestellt. Es bleibt allerdings noch viel zu tun, um im Softwarebereich mit empirischen Modellen – analog zu physikalischen Gesetzen in den traditionellen Ingenieurwissenschaften – reguläre Softwarestrukturen begründen und damit ingenieurmäßig skalieren zu können.

BD: Wie beurteilen Sie die von der öffentlichen Forschung ausgehende Wirkung auf den Wirtschaftsstandort Deutschland? Was bedeutet es für die Informatik-Forschung in Deutschland, dass in den Kerngebieten der Informatik die deutsche Industrie kaum (noch) vertreten ist? Welche anderen Branchen können von der Informatik-Forschung Nutzen ziehen? Welche Rolle spielt für Sie die Automobilindustrie?

DR: Bereits seit vielen Jahren wird in Deutschland zwischen der Informatikbranche (primäre Branche) und den software-intensiven Anwendungsbranchen wie Automobilbau oder Medizintechnik (sekundäre Branchen) unterschieden. Deutschland hat sicherlich in den sogenannten Sekundärbranchen durch die Verbindung traditioneller deutscher Ingenieurskunst und Softwaretechnik eine weltweit führende Position erreicht. Diese Sekundär-Branchen (insbesondere die Automobilbranche) stehen in Deutschland für eine große Zahl von Arbeitsplätzen. Die deutsche – z.T. öffentliche geförderte – Informatikforschung hat dazu entscheidend beigetragen. In den Kerngebieten der Informatik (z.B. Betriebssysteme und  Datenbank-Managementsysteme) spielen wir im Vergleich zu den USA nur eine untergeordnete Rolle. Allerdings besteht begründete Aussicht, daß wir in dem immer wichtigeren Bereich der Geschäftsprozess-Software unter Führung von SAP und Software AG eine führende Rolle behaupten und in Zukunft weiter ausbauen können. Das vom BMBF an den Wissenschaftsstandorten Kaiserslautern, Saarbrücken, Darmstadt und Karlsruhe etablierte Software-Spitzen-Cluster hat zum Ziel, diese Spitzenstellung im Bereich Geschäftsprozess-Software durch Forschungsergebnisse zum Thema Emergenz (d.h. interoperable, adaptive, sichere und benutzerfreundliche Software) auf lange Zeit zu festigen und auszubauen.

BD: Ihr Institut präsentiert sich in letzter Zeit in einem saarländisch-pfälzischen Forschungsverbund. Welche Synergie-Effekte erwarten Sie aufgrund der geografischen Nachbarschaft? Erwies sich die Vergabe von Forschungsprojekten bisher als geeignetes Mittel für eine regionale Strukturförderung? Gibt es Beispiele?

DR: Sie beziehen sich hierbei sicherlich auf  das oben genannte Software-Spitzen-Cluster des BMBF. Es handelt sich also um einen saarländisch-pfälzisch-hessisch-badischen (also südwestdeutschen) Verbund. Gerade in diesem Verbund können wir die industriellen und wissenschaftlichen Stärken der vier Standorte synergetisch einsetzen. Kaiserslautern steht vorrangig für Forschung zu den Themen Interoperabilität und Adaptivität und bringt mittelständische Firmen wie Proalpha ein. Saarbrücken bringt vor allem Forschung zum Thema Benutzerfreundlichkeit sowie die Firma IDS Scheer (jetzt Teil der Software AG) ein. Darmstadt bringt schwerpunktmäßig Forschung zum Thema Sicherheit sowie Firmen wie SAP Research und Software AG ein. Karlsruhe bringt Forschung zum Thema Cloud-Computing sowie die Firma SAP ein. Damit werden in diesem Verbund alle wichtigen Forschungsthemen für emergente Geschäftsprozess-Software der Zukunft sowie der überwiegende Teil der deutschen Geschäftsprozess-Industrie repräsentiert. Wir gehen davon aus, dass die öffentliche Förderung des Spitzen-Clusters dieser Entwicklung den entscheidenden Schub geben wird. Ein weiteres Beispiel, wo öffentliche Förderung entscheidend zur regionalen Strukturentwicklung beigetragen hat, ist das IT-Cluster Kaiserslautern. Langjährige Investitionen des Landes Rheinland-Pfalz in den Wissenschaftsstandort Kaiserslautern sowie die Etablierung angeschlossener High-Tech-Industrieparks haben in Kaiserslautern sowie der Region Westpfalz zu mehr als 5000 neuen High-Tech-Arbeitsplätzen sowie einer Aufbruchsstimmung der gesamten Region geführt. Der Wissenschaftsstandort Kaiserslautern ist heute durch eine einmalige Struktur von Einrichtungen zur Grundlagenforschung (TU Kaiserslautern, Max-Planck-Institut für Softwaresysteme) sowie angewandte Forschung und Technologietransfer (Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), zwei  Fraunhofer Institute für Experimentelles Software Engineering (IESE) und Techno- und Wirtschaftsmathematik (ITWM)) geprägt. Diese Struktur hat inzwischen auch die Aufmerksamkeit großer internationaler Firmen wie John Deere erregt, die in Kaiserslautern 2010 ihr Europäisches Technologie & Innovationszentrum (ETIC) etabliert haben. Ich gehe soweit zu sagen, dass Strukturentwicklung heute nur noch im Umfeld von Forschungszentren entstehen kann; diese selbst benötigen immer öffentliche Anschubfinanzierung.

BD: Ich sehe in MP3, das der Fraunhofer-Gesellschaft in den letzten 25 Jahren Lizenzgebühren von weit über 100 Mio. Euro einbrachte, ein vorbildliches Ergebnis der deutschen Forschung. Warum blieb es mehr oder weniger ein Einzelfall? Liegt es an der fehlenden Fokussierung auf marktrelevante Technologien oder am unzu­reichenden Interesse, geistiges Eigentum adäquat abzusichern?

DR: Sicherlich stellen die MP3-Patente eines der Highlights deutscher IT-Forschung dar. Allerdings sind solche Erfolge nicht planbar (selbst die MP3-Patente sind als Nebenprodukte anderweitig orientierter Forschung entstanden). Man kann lediglich die Wahrscheinlichkeit dadurch erhöhen, dass markt- und unternehmerisch-orientierte Forschungs-Umgebungen wie die Fraunhofer-Gesellschaft angeboten werden. Ich sehe auch die Probleme in Deutschland nicht so sehr in der Etablierung von Patenten (hier ist Deutschland immer noch in der Spitzengruppe), sondern in der ökonomischen Nutzung dieser Patente (selbst die MP3-Patente wurden überwiegend in den USA und Asien ökonomisch genutzt und damit  im Wesentlichen Arbeitsplätze geschaffen). Zusätzlich gibt es im Bereich der Software in der Tat immer noch Schwierigkeiten das geistige Eigentum zu sichern. Zusammenfassend  sehe ich in Deutschland den größten Nachholbedarf bei der Schaffung verstärkter unternehmerischer Neugier, Patente als Grundlage für Ausgründungen zu nutzen. Aber gerade in der jetzigen Zeit, die durch erhöhten Bedarf an gut ausgebildeten Informatikern für die Wirtschaft gekennzeichnet ist, wird es noch schwerer sein, diesen unternehmerischen Geist zu befördern.

BD: Wie sehen Sie die Konkurrenz der Schwellenländer, also von Brasilien, China, Indien und Russland? Werden diese Länder nur bei Produkten und Dienstleistungen mit uns in Wettbewerb treten, oder betrifft das auch die Forschung? Welche Konsequenzen sollten wir daraus ziehen? 

DR: Diese vier aufstrebenden Schwellenländer werden immer stärkere Konkurrenten auf allen Gebieten werden – auch bei der Forschung. Es ist bereits heute beeindruckend, wenn man die um mindestens eine Größenordnung höhere Zahl von Informatik-Abgängern in China sieht. Software-Forschungslabore wie ISCAS (das Software Institut der Chinesischen Akademie der Wissenschaften) kombinieren eine große Zahl exzellenter Abgänger mit im Ausland (überwiegend USA) ausgebildeten Wissenschaftlern. Den Erfolg dieser Forschung kann man am rapide steigenden Anteil von Veröffentlichungen bei Spitzenkonferenzen (z.B. der IEEE International Conference on Software Engineering ICSE) ablesen. Wir müssen uns in Deutschland auf unsere Stärken konzentrieren (z.B. sekundäre Softwarebranchen und Geschäftsprozess-Software) und müssen unsere Firmen überzeugen, dass Top-Forschung zu Hause den globalen Wettbewerbsvorteil sichert. Hier können öffentliche Förderungen von Wissenschaft und Wirtschaft wie die BMBF-Spitzen-Cluster einen entscheidenden Beitrag leisten.

BD: Vielen herzlichen Dank für die ausführliche Beantwortung meiner Fragen, aber auch dafür, dass Sie zu einigen Themen Stellung bezogen haben, die mich schon seit langem interessieren. Dass ich Sie zwischen Hawaii und Kalifornien erwischt habe, beweist mal wieder, wie nützlich das Internet sein kann.