Dienstag, 30. Oktober 2012

Hasso-Plattner-Institut in Potsdam

Mit diesem Beitrag beginne ich eine neue Themenreihe. Es geht nicht mehr um Produkt-Hersteller wie Apple, IBM, SAP oder Dienstanbieter wie Google, sondern um öffentliche und private Forschungs- und Wissenschaftszentren von überregionaler Bedeutung.

Beim Hasso-Plattner-Instituts (HPI) an der Universität Potsdam handelt es sich um eine universitäre Forschungs- und Bildungseinrichtung besonderer Art. Seine Einrichtung und die ersten Jahre des Betriebs werden aus dem privatem Vermögen von Hasso Plattner, einem der SAP-Gründer, finanziert. Details darüber findet man in Wikipedia. Leider ist diese Form der Wissenschaftsfinanzierung etwas selten, vor allem in Deutschland. Eine vergleichbare Rolle spielt das von Klaus Tschira, einem andern SAP-Gründer, gegründete Europäische Medienlabor in Heidelberg.  


Das HPI verfolgt eine Reihe ganz spezifischer Ziele, die Hasso Plattner am Herzen liegen. So sollen die Studierenden lernen ‚komplexe IT-Systeme und Softwareprodukte zu verstehen, zu entwickeln und zu beherrschen‘.  Es wird damit exemplarisch ein Gegengewicht geschaffen zu der Mehrzahl der staatlichen Hochschulen, an denen Produktdenken und System-Management nicht als akademisch gelten. Hervorzuheben sind ferner die HPI Research School und das Design Thinking Research-Programm. Alle zwei Wochen findet ein Softskills-Kolloquium statt mit externen Referenten.

Plattners Investition in Potsdam beträgt mehr als 200 Millionen Euro. Er finanziert das HPI nicht nur komplett, sondern engagiert sich dort auch in Forschung und Lehre. Zusammen mit Potsdamer Mitarbeitern hat er eine neue Datenbank-Architektur (HANA genannt) entwickelt. Damit trägt er  ̶  als typischer Unruheständler  ̶  selbst zur technischen Innovation der Branche bei.

Seit dem ersten IT-Gipfel der Bundesregierung, der 2006 in Potsdam stattfand, betreibt das HPI den Gipfel-Blog. Darin werden anlässlich jedes IT-Gipfels alle wichtigen Expertisen vorgestellt. Zwischendurch kommen unter anderem bekannte Industrie-Vertreter in Interviews zu Wort. Seit September 2012 betreibt das HPI die E-Leaning Plattform open HPI, die interaktive Kurse kostenlos im Internet zur Verfügung stellt. Das Institut will damit eine "neue Ära der Wissensvermittlung einleiten."

Im März vor einen Jahr gab Christoph Meinel, der derzeitige Leiter des HPI, das erste Interview für diesen Blog. Er stellte auch das Institut kurz vor. Dieser Tage verwies er mich auf die innovativen Lehrangebote des HPI.

Vielleicht haben Sie von unserer neuen kooperativen Online Lernplattform openHPI gehört. Wir bieten hier die neuen MOOCs an zu Themen der IT-Technologie. Der erste Kurs von Herrn Plattner ist gerade zu Ende gegangen, 13.000 haben mitgemacht. Nun startet am 5.11. der nächste Kurs zum Internetworking. Während sich der erste Kurs an Fachleute wandte und in English gehalten wird, wendet sich der nächste Kurs in deutscher Sprache an die breite Öffentlichkeit und will die Technik des Internets allgemeinverständlich erklären. Vielleicht haben Sie Lust, bei der Verbreitung dieser Info zu helfen.

Was ich hiermit gerne tue.

Mittwoch, 24. Oktober 2012

Ist eine Habilitation schädlich für Informatiker und Ingenieure?

Nach zwei Beiträgen (am 10. Oktober und 18. Oktober), die möglicherweise das Selbstverständnis einiger Informatikerinnen und Informatiker etwas ankratzten, drängt sich jetzt eine naheliegende Ergänzung auf. Als Grenzgänger zwischen akademischer und praktischer Informatik behandle ich gerne Themen, bei denen die unterschiedlichen Sichten zu kollidieren scheinen. Wenn überhaupt die beiden Seiten miteinander reden,  ̶  also Interesse für einander zeigen   ̶  redet man auch schon mal aneinander vorbei. Man muss sich dann anstrengen, um die unterschiedlichen Weltsichten überhaupt zu verstehen. Es ist auch nicht damit getan, nur einer Seite den Spiegel vorzuhalten. Wenn Dinge nicht so sind, wie sie sein sollten oder sein könnten, fällt dies auf das gesamte Fachgebiet zurück. Viele Dinge, die ich seit meiner beruflich aktiven Zeit bemerkte, benötigten die durch das Alter gegebene Distanz, bevor ich sie anzusprechen wagte. Dieses ist ein solches Thema.

Da das Thema etwas umstritten ist, möchte ich mich zunächst wieder hinter einem prominenten Kollegen verstecken. In diesem Falle ist es Ernst Denert [1], der bereits 1993 für das Teilgebiet Software Engineering die im Titel gestellte Frage wie folgt beantwortet hatte:

Professoren für Software Engineering müssen in der Wirtschaft Projekte gemacht haben. Das ist viel besser als eine Habilitation, die m.E. sogar schädlich ist, sofern sie eine reichliche Praxiserfahrung verhindert.

Obwohl sich durch den so genannten Bologna-Prozess in den letzten 20 Jahren sehr gravierende Änderungen an den Hochschulen ergeben haben, blieb das Thema Habilitation davon weitgehend unberührt. Noch erfüllte sich die Hoffnung, der Kollegen wie Jochen Ludewig anhingen, dass nämlich die Informatik als Ganzes sich allmählich zu einer konstruktiven Ingenieurdisziplin entwickeln würde. Da ich diese Auffassung von Informatik im Wesentlichen teile, beschränke ich mich bei diesem Beitrag absichtlich nicht auf Software Engineering. Im Titel betone ich erneut die Gemeinsamkeiten zwischen Informatik und Ingenieurwesen.

Damit ich eine klare Ausgangsbasis habe, zitiere ich zunächst einige Passagen aus der Habilitations-Ordnung der Universität Stuttgart. Über den Zweck einer Habilitation heißt es dort:

Die Habilitation ist die Anerkennung einer besonderen Befähigung für Forschung und Lehre in einem bestimmten Fach oder Fachgebiet.

Man beachte, das Wort Anerkennung. Die Habilitation wird in Stuttgart nicht (mehr) als Voraussetzung für die Ausübung einer akademischen Lehrtätigkeit angesehen. Man erwirbt lediglich den Titel Dr. habil. Für die Habilitation sind dreierlei Leistungen zu erbringen (1) eine Habilitationsschrift (2) ein wissenschaftlicher Vortrag und (3) eine studienbezogene Lehrveranstaltung. Am ausführlichsten wird die Habilitationsschrift behandelt. Erforderlich ist eine:

… in der Regel in deutscher oder englischer Sprache abgefassten Habilitationsschrift oder – bei kumulativer Habilitationsleistung – die Vorlage nach der Promotion erstellter und im thematischen Zusammenhang mit dem Fach oder Fachgebiet, für welches die Lehrbefugnis verliehen werden soll, stehender wissenschaftlicher Veröffentlichungen, aus denen die Eignung der Bewerberin bzw. des Bewerbers zu der der Professorenschaft aufgegebenen Forschungstätigkeit hervorgeht.

Während die Leistungen (2) und (3) die didaktische und pädagogische Seite der späteren Lehrtätigkeit betreffen, soll durch Leistung (1) die Eignung für die Forschungstätigkeit nachgewiesen werden. Das Problem ist, dass dies nur aufgrund von (papiernen) Veröffentlichungen in besonders hochgeschätzten Journalen für möglich gehalten wird. Bei Technischen Universitäten, wie dies Stuttgart eine ist, nehme ich an, dass dort Patente als Veröffentlichungen behandelt werden. Dass ein prämierter Entwurf, den ein Architekt vorlegte, als Veröffentlichung zählt, glaube ich schon. Realisierte Produktkonzepte, egal ob in Hardware oder Software müssten eigentlich die gleiche Rolle spielen. Da habe ich jedoch große Zweifel. Wenn der Begriff Veröffentlichungen in dieser allgemeineren Weise (also etwas ingenieur-freundlicher) interpretiert würde, hätte ich an den Kriterien nichts auszusetzen. Als einzige Frage bleibt, wie man am besten und schnellsten zu guten Ingenieurleistungen kommt. Es wäre fatal, wenn die Meinung vorherrschen würde, dass dies nur durch Ausharren im Dienste eines Lehrstuhls oder einer Universität möglich ist. Dann wäre Aufklärung und Umdenken dringend nötig.

Ergänzen möchte ich noch, dass der Begriff Forschen zurzeit inflationär missbraucht wird. Nicht alles, was Hochschulleute tun, ist Forschung. Wenn sie ihre Studenten befragen, ob ihnen das Mensaessen schmeckt oder ob die Bildschirme hell genug sind, kann dies je nach Situation bereits Forschung sein. In einem Industriebetrieb würde man dasselbe als Teil der Arbeitsplatzgestaltung ansehen. Böse Zungen berichten von Leuten, die sich zehn Jahre lang als Forscher ausgaben, ohne dabei etwas entdeckt oder erfunden zu haben. Die Frage ist, wer die Maßstäbe festlegt. Es ist sicher nicht optimal, wenn dies die Forscher selbst tun. So wie man den Studentenausweis gerne behält, um an billige Fahrkarten zu kommen, betreiben manche Leute Forschung, weil es dafür öffentliche Gelder gibt.

Ob die Habilitation schädlich ist, muss man aus zwei Perspektiven beantworten. Einmal ist es das Interesse des Fachgebiets, andererseits die Sicht des Individuums. Im ersten Falle gäbe es eine Reihe von Fragen:

  • Hat die für notwendig gehaltene Habilitation Kandidaten von einer akademischen Laufbahn abgehalten, die geeignet gewesen wären, die Aufgaben eines Professors (d.h. die Zehnkampf-Disziplinen von Mertens) gut zu erfüllen?
  • Hat die Habilitation jemanden davon abgehalten, sich mit für das Fachgebiet wichtigeren Problemen zu beschäftigen, sofern dies eine Option gewesen wäre?
  • Hat die Habilitation öffentliche Mittel verschlungen, die besser für etwas anderes hätten eingesetzt werden können?
  • Wurden Leute, weil sie sich habilitiert hatten, andern Kandidaten gegenüber vorgezogen, die besser qualifiziert waren?

Die Sicht des Individuums kommt bei den folgenden Fragen zur Geltung.

  • Verführt der traditionelle Weg über eine Habilitation junge Menschen dazu, in ihrer Lebensplanung bzw. in ihrer Karriere unverantwortbare Umwege einzulegen?
  • Führt eine Tätigkeit in der Industrie dazu, dass man den wissenschaftlichen Gehalt seiner Arbeit nicht erkennt bzw. dass er nicht anerkannt wird?

Diese Fragen können nur von Fall zu Fall beantwortet werden. Obwohl sie im Allgemeinen zu verneinen sind, gibt es jedoch immer wieder Konfliktsituationen, d.h. Menschen, die sich durch das "Gepenst" Habilitation unter Druck gesetzt fühlen, sich dennoch nicht von ‚wichtigeren‘ Aufgaben und ‚sinnvolleren‘ Arbeiten abhalten lassen, und – wie mir ein Kollege versicherte – dies dann als Entschuldigung bei Berufungsgesprächen anführen.

Ich möchte dem Kollegen Denert nicht widersprechen, möchte jedoch etwas differenzierter argumentieren. Eine akademische Stellenausschreibung sollte sagen, welche Qualifikation erforderlich ist und nicht wie sie erworben wurde. Viel wichtiger als das Wort Habilitation zu vermeiden ist es, wenn die Informatik anerkennen würde, dass einem Lehrer ohne eigene Erfahrungen in der Entwicklung von Anwendungssystemen oder  ̶  noch besser  ̶  von Produkten doch Einiges fehlt. Wissen aus zweiter Hand wird von jungen Menschen sofort als solches erkannt und entsprechend gering geschätzt.

Die Bedeutung einer ‚klassischen‘ Habilitation ist in der Mathematik groß, wo Anwendungen nur eine untergeordnete Rolle spielen. Genauso ist es in den Geisteswissenschaften. Manche Informatiker mögen geglaubt haben, dass ihre Akzeptanz an allgemeinen Hochschulen davon abhängt, welche Anerkennung sie bei Mathematikern und Philosophen finden. Das gilt nicht für Technische Hochschulen, wo Ingenieure und Praktiker einen starken Einfluss haben. Das Fach Informatik besitzt im Vergleich zu Fächern wie Maschinenbau und Elektrotechnik eine relativ kurze Geschichte. Da es erste Lehrstühle erst ab etwa 1970 gab, konnte sich bis dahin niemand in Informatik habilitieren. Entweder wurden Mathematiker, Elektroingenieure oder Praktiker berufen. Hatte sich jemand vorher habilitiert, dann in einem anderen Fach als der Informatik. Das änderte sich in den 1980er Jahren, als die Informatik an vielen Universitäten und Technischen Hochschulen fest etabliert war. Da Informatik an beiden Hochschultypen vertreten ist, versucht sie beiden Traditionen gerecht zu werden. Es ergaben sich nicht nur – im Vergleich zu Ingenieuren – sehr viele Promotionen, sondern auch eine beträchtliche Anzahl von Habilitationen in Informatik.

Untersuchungen über die tatsächliche Dauer von Habilitationsverfahren sind mir nicht bekannt. In einer an der RWTH Aachen durchgeführten Befragung, über die Manfred Nagl berichtet, betrug  das Durchschnittsalter bei Promotionen in Ingenieurwissenschaften und Informatik 33 Jahre bei einer durchschnittlichen Promotionsdauer von 5,4 Jahren. Dies weicht erheblich von Mathematik, Medizin und Geisteswissenschaften ab. In der Medizin z.B. zählt man die Dauer einer Dissertation in Monaten statt Jahren. Rechnet man etwa vier Jahre für eine Habilitation ergibt dies ein Lebensalter on 37-38 Jahren. Im Allgemeinen wissen Informatiker und Ingenieure ihre Lebenszeit recht sinnvoll zu nutzen. Im Gegensatz zu einigen andern akademischen Berufen besteht kein Mangel an Stellen. 

Ob es überhaupt sinnvoll ist, eine so lange Zeit ausschließlich für die Berufsvorbereitung anzusetzen, darf hinterfragt werden. Viele moderne Berufe verändern innerhalb von 30 Jahren ihr Profil, also den erforderlichen Wissensstand. Es gibt natürlich auch Ausnahmen, wo Wissen zeitlos ist. Einige Vertreter dieser Fächer sind als wahrhaft große Dulder bekannt, z.B. Kunsthistoriker, Ornithologen und Assyriologen. Natürlich hat eine Habilitation in der Medizin, wo etwa 60% der Absolventen promovieren, einen andern Stellenwert als in den Ingenieurwissenschaften, wo weniger als 10% promovieren. Informatiker liegen in diesem Punkt näher an den Ingenieuren als an den Medizinern.

Als Alternative zur Habilitation wurde in einigen Bundesländern die Juniorprofessur eingeführt.  Daher ist die folgende Aussage eines ehemaligen Juniorprofessors an der Uni Konstanz interessant. Es handelt sich um einen Geisteswissenschaftler.

Die Habilitation erfreut sich nicht nur fröhlicher Urständ, sondern ist in den Geisteswissenschaften deutlich gestärkt gegenüber der Juniorprofessur, die nur dann irgendeine Bewerbungsqualität aufweist, wenn sie mit einer Habilitation verbunden ist oder aber genau die gleiche Leistung erbracht wurde, die für eine Habilitation notwendig ist.

Es ist mein Eindruck, dass in der Informatik die Juniorprofessur durchaus als Alternative zur Habilitation akzeptiert wird. Vielleicht ist es möglich, dass sich die Informatik an Technischen Universitäten und allgemeinen Universitäten unterschiedlich weiterentwickelt. An allgemeinen Universitäten achtet man auf akademische Titel, bei technischen Universitäten ist man eher zu sachbestimmten Lösungen bereit. Zu sehr auseinanderdriften sollten sie jedoch nicht. Das Für und Wider der Habilitation wird auch sehr ausführlich in Wikipedia behandelt. Es geht dabei um die Rolle der Habilitation ganz allgemein, ohne Blick auf die Informatik.

Zusätzliche Referenzen:
  1. Denert, E.: Software-Engineering in Wissenschaft und Wirtschaft: Wie breit ist die Kluft? Informatik-Spektrum 16,5 (1993), 295-299
  2. Den Kollegen Rul Gunzenhäuser und Hartmut Wedekind danke ich für anregende Diskussionen zu diesem Thema. Die Verantwortung für evtl. Fehlinterpretationen übernimmt der Autor 
NB: Der Kommentar vom 28.10.2012 von Gerhard Goos aus Karlsruhe betrifft auch diesen Beitrag.

Sonntag, 21. Oktober 2012

Kosmos als Krimi-Tatort

Als Nicht-Physiker greife ich besonders dann gerne zu einem Physikbuch, wenn ein neues Phänomen entdeckt wurde oder wenn etwa ein Nobelpreisträger sich kritisch mit seiner Wissenschaft auseinandersetzt. Das Buch von Harald Lesch und Jörn Müller mit dem Titel Sternstunden des Universums wurde mir empfohlen, weil es didaktisch sehr gut gemacht sei. Bei den Streifzügen durch Astronomie, Kosmologie und Quantenphysik werden vor allem die Themen herausgegriffen, die dem Mann oder der Frau auf der Straße etwas unheimlich vorkommen. Es gibt Erscheinungen in der Natur, da ist man geneigt zu fragen, was sich die Natur (oder ihr Schöpfer) dabei wohl gedacht hat. Da wir von einem Krimi gewohnt sind, dass der Täter bei dem einen oder anderen Schachzug böswillige Absichten hatte, darf dies bei der Natur als Täter jedoch (anscheinend) nicht angenommen werden. Wenn es doch so erscheint, dann nur, weil wir den Vorgang (noch) nicht richtig verstehen.

Von dieser kriminologischen Interpretation des Buches abgesehen, sind es zwei Thesen, die die Autoren sehr stark vermitteln – ob absichtlich oder ungewollt, sei dahingestellt.

(1) Auch die Physik kann sich nicht damit begnügen, den Zustand der Welt zu beschreiben, als wäre er nur von zeitlos geltenden Gesetzen abhängig und
(2) Nichts deutet darauf hin, dass die Entwicklungsgeschichte der Natur auf den Menschen Rücksicht nahm oder nehmen wird.

Die zu Verdächtigungen Anlass gebenden Ereignisse beginnen mit den Oklo-Sedimentschichten in Gabun, wo die Natur vor Jahrmillionen einen Kernreaktor betrieben hat, setzen sich fort mit Planeten, die von einer Bahn in eine andere springen, gehen über Meteore und Asteroiden, die die Erde geradezu bombardieren und enden mit den Klima-Turbulenzen, die bereits weltweite Gegenmaßnahmen hervorgerufen haben. Supernovas können tödliche Strahlenkeulen in unsere Richtung lenken (etwa vom Sternbild Eta Carinae aus), oder auf einem der inzwischen entdeckten 500 Exo-Planeten könnte doch konkurrierendes Leben entstanden sein (etwa auf Gliese 581g).

Sterngebilde können, was Größe, Masse, Rotationsgeschwindigkeit, Hitze und Leuchtkraft betrifft, alles überbieten, was wir kennen und aushalten können. Wie heute jedes Kind weiß, sind Schwarze Löcher an Gefräßigkeit nicht zu überbieten. Sie haben sogar Objekte geschaffen, für die der Begriff Stern nicht mehr ausreicht. Gemeint sind Quasare. Sie erhalten ihre Energie nicht durch Kernfusion wie einzelne Sterne, sondern durch Akkredition. Sie verschlucken ganze Galaxien.

Die Astronomie und auch die Physik tun gut daran, sich das Weltall und seine Gesetze als das Ergebnis historischer Prozesse vorzustellen. Manche Physiker glaubten früher, sich in dieser Hinsicht von andern Fächern (etwa der Biologie) abheben zu können. Nichts drückt dies klarer aus als die Entstehung der Metalle. Der Metallgehalt (Metallizität genannt) eines Himmelskörpers ist ein klares Indiz für sein Alter. Außerdem haben alle Objekte eine Zukunft, die anders ist als sein jetziges Erscheinungsbild.

Sich den Urknall vor 13,7 Mrd. Jahren vorzustellen, wird immer schwieriger. Nach landläufiger Theorie soll alle Materie, die es in unserem Universum gibt, sich in einem unendlich kleinen Punkt unendlich dicht und bei unendlich hoher Temperatur befunden haben (auch Singularität genannt). Eine bessere Erklärung wollen die String-Theoretiker haben. Sie geben die Forderung nach infinitesimalen Größen auf und ersetzen sie durch Plancksche Einheiten. Unterhalb von Planck-Längen und Planck-Zeiteinheiten können wir nichts feststellen. Dummerweise ist die String-Theorie nicht falsifizierbar. Moderner ist die Annahme, dass die Raumzeit gequantelt ist, d.h. es gibt sie nicht kontinuierlich, sondern nur häppchenweise. Leute, die so rechnen, benutzen Formeln, in denen auch vor dem Urknall etwas war. Es gab Masse, die nicht unendlich klein war. Es gab auch Zeit. Vielleicht war damals der Zeitpfeil sogar umgedreht (so meint es ein Herr Bojowald).

Sehr fundamental ist die Frage, wieso es überhaupt noch Materie gibt. Eigentlich müsste sie längst von Antimaterie ausgelöscht sein. Man glaubt, dass es irgendwann (per Zufall?) einen Überschuss von Materie über Antimaterie gab, und zwar im Verhältnis ein Partikel auf 10 hoch 10 Partikel. Die Folge war, dass die CP-Symmetrie (Ladung, Polarität) verletzt wurde. Daher werden Materie und Antimaterie von der schwachen Kernkraft unterschiedlich behandelt. Der materie-freie Raum ist nur ein falsches Vakuum. Er besitzt negative Energien, die sich in Quantenfluktuationen bemerkbar machen. Ob wir in Zukunft mehr in die Vergangenheit sehen können, hängt von der relativen Geschwindigkeit der Expansion unseres Universums ab. Die Frage ist, was sich schneller ausdehnt, der materie-freie Raum (das falsche Vakuum) oder das wahre Vakuum.

Multiversen sind gedanklich möglich. Sie liegen jenseits vom Hubble-Volumen (das, was wir zurzeit sehen können). In ihnen können andere Naturgesetze gelten als bei uns. Eine zerbrochene Tasse kann sich dort möglicherweise wieder von selbst zusammensetzen. Die große Frage der Kosmologie heißt, wer oder was setzte die Naturkonstanten fest, die die Physik unseres Universums bestimmen? Wieso unsere Werte das sind, was sie sind, ist eines der größten, noch ungelösten Rätsel. Bei manchen der Konstanten macht es die vierte Stelle hinter dem Komma erst möglich, dass wir Menschen überhaupt existieren können.

Dass einer der Autoren (Lesch) auch einen Hang zur Philosophie hat, wird aus folgender Überlegung deutlich. Für die Frage aller Fragen gäbe es zwei Formen:

(1) Wie kommt es, dass überhaupt etwas ist und nicht nichts ist? oder
(2) Warum (oder weshalb) ist überhaupt etwas und nicht nichts?

Der erste Fall sei eine Seinsfrage, die Naturwissenschaftler stellen dürfen. Im zweiten Falle handele es sich um eine metaphysische Frage oder Sinnfrage. Sie gehöre in den Bereich der Philosophie. Dass man die Theologie völlig außen vorlässt, ist überraschend. Wenn ich den Vergleich mit Kriminalgeschichten erneut aufgreife, so kann man dort eine ähnliche Reihenfolge der Fragen feststellen. In Krimis fragt man zuerst, Wer hat es getan und wie? Erst danach fragt man, Warum hat er es getan?

Donnerstag, 18. Oktober 2012

Können Hochschulen einem Land schaden?

Ich setzte heute die etwas unangenehme Diskussion fort, die ich vor einer Woche in diesem Blog wieder aufgegriffen habe. Damals war der Anlass die Frage, wer den Hochschulangehörigen ihre Veröffentlichungen bezahlen soll – sie selbst, die Steuerzahler oder die Leser?

Die Frage, die im heutigen Titel steckt, scheint auf einen ungeheuerlichen Verdacht hinzuweisen. Ich rüttele bei vielen an einer Glaubensgewissheit. Dass einzelne Studierende oder Altersgruppen an der Hochschule auf die schiefe Bahn geraten können, dafür gab es immer wieder Indizien, nicht nur in den 1960er Jahren. Es gibt dabei Unterschiede zwischen Universitätsstädten und Fächern. Berlin, Frankfurt und Freiburg waren schlimmer als Aachen, Karlsruhe und Eichstätt; die Geistes- und Sozialwissenschaftler waren stärker gefährdet als die Ingenieure und Physiker. Dass die staatlichen Hochschulen als Einrichtung aber dem Gemeinwesen schaden könnten, das sie alimentiert, passt nicht in die landläufige Vorstellung.

Mein Kollege Peter Mertens, Emeritus einer bekannten deutschen Universität, brachte mich auf die Idee, meine Leser einmal etwas zu schockieren. Er wies mich dieser Tage zum wiederholten Male daraufhin, dass den Hochschulen von staatlicher Seite in wesentlichen Aspekten falsche Anreize gegeben werden. In einem Vortrag [1], den er im letzten Jahr in Zürich hielt, belegte er dies zwar nur mit vielen eher anekdotischen Fallbeispielen, aber doch sehr überzeugend. Er zeigte, dass in seinem Fach, der Wirtschaftsinformatik, die deutschen Hochschulen Gefahr laufen, dem Wirtschaftsstandort Deutschland Schaden zuzufügen.

Ich werde jetzt diese neue Gruselgeschichte nicht Schritt für Schritt erklären, sondern verweise auf die Arbeit von Mertens. Nur so viel: Die falschen Anreize ergeben sich primär daraus, dass Bewerber für Planstellen an Hochschulen vielfach nur nach einem einzigen Kriterium bewertet werden, den Veröffentlichungen in internationalen Fachjournalen (mit AAA-Bewertung). Dem gegenüber stellen die Anforderungen an einen Lehrstuhlinhaber so etwas wie die Disziplinen eines Zehnkampfs dar. Für die Auswahl des akademischen Nachwuchses benutze man vielfach eine Zielfunktion

mit den Variablen xi und den Gewichten gi. Die zehn Variablen xi sind in der folgenden Tabelle beschrieben. Alle erhalten das Gewicht 1 nur x3 erhält Gewicht 91. Wo solche Bewertungen angewandt werden,  ̶  meint Kollege Mertens  ̶  wäre jemand schlecht beraten, wenn er sich für Forschungsprobleme interessieren würde, die nur für Deutschland relevant sind. Außerdem kann er davon ausgehen, wenn er in Englisch veröffentlicht, dass seine Ergebnisse früher in Ländern zur Anwendung kommen, die  mit uns im Wettbewerb stehen, als zuhause in Deutschland.

Was Mertens für die Wirtschaftsinformatik konstatiert, gilt meines Erachtens erst recht für einen Professor der Informatik, der Ingenieurwissenschaften, der Architektur oder gar der Kunst. Hier kommt noch hinzu, woran ich im früheren Blog erinnerte, dass nämlich die Leistungen eines Fachmanns auf diesen Gebieten nicht an seinen Publikationen bewertet werden (sollten), sondern an Entwürfen, Erfindungen und Produktideen, einschließlich deren Realisierung. Wäre es so und gäbe es eine Einheit von Forschung und Lehre (‚Humboldt 2.0‘ nennt es Mertens), dann brauchte man sich in diesen Fächern um den Nachwuchs keine Sorgen zu machen.


 Zehnkampf-Disziplinen eines Hochschullehrers (nach Mertens [1])

Nach Mertens schaden die falschen Anreize seinem akademischen Fachgebiet. Irgendwann bleiben Studenten weg und damit die öffentlichen Mittel. Diese Sorge ist aus seiner Sicht verständlich. Die Konsequenzen, die ich befürchte, sind allerdings erheblich gravierender. Zerstört wird nicht nur ein einzelnes universitäres Lehrgebiet, sondern die Wirtschaft des Landes wird geschädigt, und damit unser Wohlstand. Deshalb habe ich die Darstellung möglicher Konsequenzen von Peter Mertens etwas modifiziert. Ein Land, dem fähige und motivierte Entwickler fehlen, wird im internationalen Wettbewerb zurückfallen. Aus dem Exportüberschuss wird ein Defizit. Ein zu großes Defizit führt zu Sparmaßnahmen und zur Rezession. Die globale Wirtschaft verschiebt nämlich laufend den Ort ihrer Wertschöpfung, und zwar nicht nur bei der Suche nach Bodenschätzen und Kostenvorteilen (z.B. niedrige Löhne und Steuern), sondern auch entsprechend den zur Verfügung stehenden technisch qualifizierten Arbeitskräften.


Falsche Anreize und ihre Folgen (frei nach Mertens [1])

Eng verwandt mit der Frage, welche Anreize wir geben, ist die Frage nach anerkannten Lehrmeistern und Vorbildern. Da wir leicht dazu neigen, nur auf das Ausland zu schauen, habe ich mich in diesem Blog bemüht, auch in Deutschland einige Leitbilder zu identifizieren. Sie finden sie vor allem in den folgenden beiden früheren Beiträgen Unternehmer und Erfinder aus der Informatik, Teil I und Teil II. Dies sind übrigens zwei meiner am meisten gelesenen Beiträge. Aber auch die Kategorien: Erinnerungen an verstorbene Kollegen und Interviews mit lebenden Kollegen dienen diesem Zweck.

Einen Punkt aus dem Vortrag von Peter Mertens möchte ich noch kommentieren. Es ist auch in der Industrie nicht üblich, dass Kollegen konstruieren, also entwerfen, die nie ein Produkt gebaut oder getestet haben. Für Hochschulleute ist es deshalb sehr empfehlenswert, mit dem vergleichenden Testen zu beginnen. Viele Kollegen in der Industrie haben als Tester angefangen und wechselten später in die Entwicklung. Sich in die Rolle eines Nutzers zu versetzen, kann sehr lehrreich sein. Von echten Fehlern, die man dabei entdeckt, gelangt man zu Ideen für Erweiterungen für neue Nutzergruppen. Es ist wichtig, auch an Hochschulen über technische Produkte und professionelle Dienste nachzudenken. Man sollte dies nicht als unwissenschaftlich abtun, als Fachhochschulniveau.

Zu dieser kritischen Betrachtung, zu der mich Kollege Mertens ermunterte, möchte ich eine zweite hinzufügen. Es geht dabei um die zwangshafte Verwissenschaftlichung der Ingenieurfächer. Ich kleide meine Gedanken zunächst in die Worte meines früheren IBM-Kollegen Tom Simpson aus Wheaton, MD. Er nahm an der Nachfolge-Tagung zu Garmisch teil, die 1969 in Rom stattfand, und hatte einen Text eingereicht, der als ‚Masterpiece Engineering‘ überschrieben ist. Brian Randell, der Schriftführer der beiden NATO-Konferenzen, hat mehrmals versucht, diesen Text zu veröffentlichen. Er wurde immer wieder daran gehindert. Er steht jetzt auf der Homepage seiner früheren Universität (Newcastle upon Tyne). Die Geschichte spielt in Italien im 15. Jahrhundert. Ich zitiere daraus in Englisch.

It seems that a group of people had gotten together to discuss the problems posed by the numbers of art masterpieces being fabricated throughout the world; at that time it was a very flourishing industry. They thought it would be appropriate to find out if this process could be "scientificized" so they held the "International Working Conference on Masterpiece Engineering" to discuss the problem…

Production was still not reaching satisfactory levels so they extended the range of masterpiece support techniques with some further steps. One idea was to take a single canvas and pass it rapidly from painter to painter. While one was applying the brush the others had time to think. The next natural step to take was, of course, to double the number of painters but before taking it they adopted a most interesting device. They decided to carry out some proper measurement of productivity. Two weeks at the Institute were spent in counting the number of brush strokes per day produced by one group of painters, and this criterion was then promptly applied in assessing the value to the enterprise of the rest. If a painter failed to turn in his twenty brush strokes per day he was clearly under-productive.

Regrettably none of these advances in knowledge seemed to have any real impact on masterpiece production and so, at length, the group decided that the basic difficulty was clearly a management problem. One of the brighter students (by the name of L. da Vinci) was instantly promoted to manager of the project, putting him in charge of procuring paints, canvases and brushes for the rest of the organization.

Die Moral dieser Geschichte lautet: Auch wenn man Farben, Leinwände und Pinsel nach wissenschaftlichen Methoden herstellt oder beschafft, und alle Arbeitsabläufe rational organisiert, heißt das nicht, dass automatisch Gemälde entstehen, die man als Kunstwerke akzeptiert. Fortschritte des Wissens sind kein Allheilmittel. Oder anders gesagt: Ingenieure und Informatiker, die meinen durch 'bessere' Methoden alle Probleme lösen zu können, werden enttäucht sein. Es bleibt ein Bereich, der sich der Wisssenschaft nur schwer erschließt. Hier hilft die Empirie, auch Management genannt. Empirisches Wissen kann äußerst nützlich sein, auch wenn es keine erklärende Theorie dazu gibt.

Studierende der Informatik und der Ingenieurwissenschaften müssen lernen, zuerst nach Problemen, Anwendungen und Produktideen zu suchen, dann nach Methoden, die bei der Lösung bzw. Realisierung helfen – nicht umgekehrt. Methoden sind das Mittel, Produkte und Dienstleistungen der Zweck. Würden wir nur noch Leute haben, die über Probleme und Methoden zu ihrer Lösung debattieren, aber keine, die Probleme auch lösen, also die besten Wissenschaftler der Welt und die schlechtesten Unternehmer, wäre dies nicht optimal für das Land. Die dauernde Privilegierung der Wissenschaft gegenüber andern Bereichen der Gesellschaft kann – im Extremfalle – diese Situation herbeiführen. Eine Wirtschaft, die nur Banker und keine Auto- und Maschinenbauer mehr kennt, wäre leichter zu verkraften.

Probleme können durch Anwendungen an ein Fachgebiet von außen herangetragen werden. Das muss sein und ist wichtig. Nur ist das nicht die einzige Quelle. Das Fachgebiet Informatik kennt sehr viele Probleme und Aufgaben, die sich von innerhalb des Fachgebiets ergeben. Alles, was mit der Anpassbarkeit, der Benutzbarkeit, den Kosten, der Lebensdauer, den Nebenwirkungen, der Sicherheit, der Wartbarkeit, der Zuverlässigkeit unserer Produkte und Dienste zu tun hat, ist ein dem Fachgebiet inhärentes Problem.

Schließlich ist Verwissenschaftlichung in den technischen Fächern auch nicht mit Mathematisierung gleichzusetzen. Wie schon des Öftern gesagt, dienen Mathematik und Formale Methoden zur Beschreibung von Phänomen oder Problemen, nicht zu deren Erklärung bzw. Lösung. Damit Sie aber nicht glauben, ich sei gegen die Wissenschaft oder gegen die wissenschaftliche Methode, möchte ich Sie beruhigen. In einem früheren Eintrag dieses Blogs sagte ich: Die Menschheit hat nichts Besseres, um ihr Verständnis der Welt zu verbessern und um viele ihrer Probleme zu lösen.

Zusätzliche Referenz

1. Mertens, P.: Die Zielfunktion des Universitätslehrers der Wirtschaftsinformatik – Setzen wir falsche Anreize? 10th International Conference on Wirtschaftsinformatik. 16.-18. Februar 2011, Zürich. Ein Video des Vortrags gibt es auch.



Nachtrag am 24.10.2012:

Die folgende Passage in den VDI-Nachrichten, dem Sprachrohr der Ingenieure, sollte zur Besorgnis Anlass geben:

Gewandelt haben sich in den vergangenen Jahren aber andere Anforderungen der Universitäten. „Die Qualität der Publikationen war bislang kein zentraler Faktor, jetzt wird es immer wichtiger“, hat Jeschke festgestellt. Ursache dafür ist die von der Deutschen Forschungsgemeinschaft (DFG) und dem Wissenschaftsrat begleitete Exzellenzinitiative. „Universitäten suchen Forscherpersönlichkeiten, die in der Lage sind, in der Spitzenliga deutscher Universitäten mitzuspielen. Die Publikationsliste ist bei der Auswahl ein zentraler Benchmark“, sagt sie.




Nachtrag vom 29.10.2012:

Mit seinem Kommentar in diesem Blog lieferte Gerhard Goos ungewollt einen Beweis für meinen Verdacht, dass die Tätigkeit der Hochschulen uns nicht immer zum Segen gereicht.

Kollege Goos erwähnte mit Recht, dass ich fast mein gesamtes Fachwissen nicht an Hochschulen erworben habe. Als Folge davon neige ich nicht dazu alles, was Hochschullehrer sagen, von Vorherein für Gold zu halten und alles, was von außen kommt, für Blech zu erklären. Ich bin in diesem Punkte total unverbildet und werde es auch bleiben. 

Manchmal könnte man meinen, es gäbe eine Art von Verschwörung. Indem man nur das, was in AAA-Journalen publiziert wird, für Wissenschaftler als wissenswert erklärt, ist alles andere per Definition unwissenschaftlich. Da junge Gehirne leicht zu beeinflussen sind, glauben einige von diesen, dass es reicht, nur ‚wissenschaftlich‘ gebildet zu sein. So vererbt sich die Kurzsichtigkeit.

Mit Goethe möchte ich ausrufen: Mehr Licht! Hinterfragt, was man Euch sagt. Lasst Euch nichts vormachen. Fragt nach den wahren Innovatoren und Erfindern Eures Faches, also auch nach denen, die nicht alles in AAA-Journalen veröffentlichten.

Samstag, 13. Oktober 2012

Erinnerungen an Nat Rochester (1919-2001)

Nathaniel Rochester III, wie er mit vollem Namen hieß, war der amerikanische IBMer, der als erster unmittelbaren Einfluss auf meine berufliche Laufbahn nahm. Ich kannte ihn bereits vom Namen her, bevor ich ihn im Sommer 1963 persönlich kennenlernte. Wie in diesem Blog berichtet, traf ich ihn und seinen Kollegen Pete Sheridan im französischen IBM Labor in La Gaude, kurz nachdem das Algol-Projekt, an dem ich beteiligt war, beendet worden war. Er heuerte mich für ein Projekt in New York an, aus dem später die Programmiersprache PL/I hervorging. Während meiner Abordnung in New York von Oktober 1963 bis Juli 1964 war Rochester mein Bereichsleiter. Er hatte sein Büro in White Plains, NY. Mein Abteilungsleiter in New York berichtete an ihn.


Ich traf Rochester alle paar Wochen, wenn er sich über den Fortgang unseres Projekts erkundigte. Bei dem Abendessen in einem New Yorker Hotel, das ich erwähnte, war er der Gastgeber. Für von Frankreich verwöhnte Deutsche kam es einem Kulturschock gleich, da anstatt Wein nur Eiswasser geboten wurde. Seine Frau war eine der eifrigsten mit den Strickarbeiten vor und nach dem Essen. Nat Rochester hatte eine sehr verbindliche Art mit Kollegen innerhalb und außerhalb der Firma IBM zu verkehren. Man konnte fast meinen, es mit einem älteren Bruder zu tun zu haben.

Nach meiner Versetzung nach Poughkeepsie, NY, riss unser Kontakt für eine Weile ab. Später in Böblingen besuchte er mich und meinen Bereich etwa einmal pro Jahr. Rochester gehörte in dieser Zeit bereits zu den älteren Kollegen, die keine unmittelbare Projektverantwortung mehr besaßen, aber trotzdem großen technischen Einfluss nahmen. Dies ermöglichte ihm die Position eines IBM Fellows. Er konnte jederzeit überall aufkreuzen. Seine Ratschläge, die er vor Ort erteilte, konnten sehr nützlich sein. Seine anschließenden Berichte über Dinge, die ihm gefielen oder nicht gefielen, entschieden über den Ruf des Projekts und seiner Mitarbeiter in der technischen Community. Wie zu dieser Zeit üblich, war der für uns maßgebliche, weltweite fachliche Kollegenkreis ziemlich deckungsgleich mit IBM.

Über Rochesters fachliche Beiträge gibt die oben angegebene Wikipedia-Biografie einen guten Überblick. Ich zitiere deshalb lediglich aus einer IBM-Veröffentlichung [1], die eine kurze Zusammenfassung seines beruflichen Werdegangs brachte:

1948 trat er IBM in Poughkeepsie, NY, bei. Er entwarf das Testverfahren und leitete die Architektur-Arbeiten der Bandgeräte und der IBM 701. Er schrieb das erste symbolische Assembler-Programm, einen Vorgänger von SAP [dem späteren offiziellen Assembler-Programm].  Er hatte die technische Leitung der IBM 700 Serie während der Entwicklung der IBM 703,704, 705 und dem Beginn der 709. Er wechselte zur IBM Research Division bei deren Gründung  im Jahre 1955 und leitete den Bereich Computer-Theorie und experimenteller Computer-Entwurf.  Im Jahr 1961 trat er in die Data Systems Division (DSD) ein,  den Bereich, der unter anderem für IBM die ersten beiden Timesharing-Systeme, QWIKTRAN und CPS, entwickelte und den Entwurf der PL/I- Sprache betrieb. Seine Patente auf das Rechenwerk der 701 und auf die Variable-Wortgrößen-Architektur der Bandgeräte brachten ihm einen Outstanding  Invention Award von IBM.

Hinzufügen möchte ich, dass ein Outstanding Invention Award (OIA) für Forscher und Entwickler bei IBM eine der höchstgeschätzten Auszeichnungen war. Der damit verbundene Geldpreis glich für amerikanische Kollegen zum Teil die Vergütungen aus, die deutsche Erfinder aufgrund des Erfindervergütungsgesetzes automatisch erhielten. Qwiktran (Abk. für Quick Fortran) war ein auf der Sprache Fortran basierendes Timesharing-System für die IBM 7090. Es wurde von der IBM-Gruppe im Time/Life Center in New York City entwickelt. Das Conversational Programming System (CPS) war ein Timesharing-System, das als Prototyp vom Wissenschaftlichen Zentrum in Cambridge, MA, entwickelt worden war. Es unterstützte die Sprache BASIC. Die 700-Serie war die erste Familie von elektronischen Rechnern, mit der IBM nach dem Erfolg in der Lochkartentechnik das neue Gebiet betrat. Sie waren noch mit Röhren bestückt; erst mit der IBM 7090 nahmen Transistoren Einzug.
                                    
In der Zeit, als ich mit Nat Rochester in Kontakt stand, waren es außer Programmiersprachen und Timesharing-Systemen noch zwei weitere technische Themen, die ihn persönlich beschäftigten. Ich will kurz an sie erinnern.

Dilemma der Tastaturbelegung

Jeder, der heute eine Tastatur benutzt, fragt sich warum die Buchstaben so angeordnet sind, dass oben links die Reihenfolge QWERTY (oder in Deutschland QWERTZ) entsteht. Es hat mit der Häufigkeitsverteilung von Buchstaben in der englischen Sprache zu tun. Dabei kann für die beiden ersten Buchstaben QW auch AZ stehen. Schon lange weiß man, dass diese Belegung aus ergonomischer Sicht alles andere als optimal ist. Es gibt daher eine Menge Vorschläge, die Tastaturbelegung zu ändern. Durchgesetzt hat sich noch keiner. Was Millionen sich angewöhnt haben, ist sehr schwer zu verdrängen.

Nat Rochester hatte als Fellow ein Projekt namens Chord Keyboard (deutsch: Akkord-Tastatur), das die Problematik des Tippens neu anging. Es gab zwölf Tasten für die vier Finger, an den Seiten und Ecken gewölbt, so dass ein Finger zwei Tasten gleichzeitig drücken konnte, oder vier Tasten, wenn sie übereck lagen. Es gab drei Daumentasten, auch mit der Möglichkeit, zwei auf einmal anzuschlagen. Experimente zeigten, dass es mit der Tastatur leicht möglich war, alle Grundfunktionen des Tippens auszuführen. Sie hatte große Vorteile für diejenigen, die bereit waren, eine große Anzahl von Silben (oder Akkorden) für allgemeine Wörter und Sätze zu lernen. Ähnliche Konzepte werden heute weltweit von Stenografen bereits benutzt. Leider fehlte dem Ansatz die Akzeptanz in der Praxis und wurde daher nicht in ein Produkt überführt.

Geburtshelfer der ‚Künstlichen Intelligenz‘

Wie das Software Engineering so führt auch das Forschungsgebiet Künstliche Intelligenz seine Entstehung auf eine Tagung zurück. Im Sommer 1956 gewannen John McCarthy und Marvin Minsky Nat Rochester und andere Industrievertreter dazu, eine Konferenz am Dartmouth College zu sponsern, bei der McCarthy den Begriff der Künstlichen Intelligenz (engl. artificial intelligence) populär machte. Rochester startete anschließend mehrere Projekte innerhalb von IBM, die sich mit automatischem Beweisen und Computerspielen befassten. Dazu gehörten Arthur Samuel's Dame-Programm, Herbert Gelernter's Theorem-Beweiser und Alex Bernstein's Schach-Programm. Um 1958, als Gastprofessor am MIT half er John McCarthy bei der Entwicklung der Programmiersprache Lisp.

Auf Druck von Kunden und Aktionären entschloss sich IBM um 1960, alle Aktivitäten auf dem KI-Gebiet einzustellen. Durch die übertriebenen Aussagen der KI-Protagonisten auf der ganzen Welt gerieten Computer als solche ins Zwielicht. IBM legte fortan Wert darauf zu sagen, dass Computer für sehr nützliche Aufgaben verwendbar sind, und nicht zum Spielen da sind. Außerdem tun sie nur genau das, was man ihnen sagt und entwickeln keine eigenen Ideen. Erst eine ganze Generation später wagten IBMer es wieder, das Wort KI in den Mund zu nehmen. Seit Deep Blue, ein von IBM gebauter und programmierter Rechner, einen Schachweltmeister schlug, hat sich die Einstellung geändert. Auch das Projekt Watson, mit dem IBM in jüngster Zeit wieder viel Aufmerksamkeit in der Presse bekam. gibt offen zu, dass dabei KI-Methoden im Spiel sind.

Ein Schlussgedanke

Vielleicht wundert es, dass ein Hardware-Mann wie Nat Rochester später sein Interesse so sehr auf Software verschob. Im Oral History Interview der IEEE über seine Anfangsjahre bei IBM begründet er sein Interesse für Software wie folgt:

We were concerned with software right from the beginning, because we realized that in some sense software was more reliable than hardware. That is, once you got it de-bugged it would stay de-bugged, whereas the hardware would wear out and deteriorate.

Gut, auch einmal daran erinnert zu werden! Natürlich gibt es auch Software-Fehler. Nur haben sie ganz andere Ursachen als Hardware-Fehler. Es sind fast nur Entwicklungsfehler, genauer gesagt Entwurfsfehler. Es ist dies eine sehr ernüchternde Einsicht. Es kostet einige Überlegungen, um darauf vernünftig zu reagieren.

Referenz:

1. IBM Journal of Research and Development: 25th Anniversary Issue, 1981. Seite 842