Dienstag, 31. Mai 2011

Semestertreffen in Cochem an der Mosel


Mosel-Romantik im Mai


 
Semestertreffen in Cochem und Beilstein am 17. - 19.5.2011

Siehe Diashow auf meiner Homepage (PW-Geschützt)

Fast alle Bilder wurden per iPhone aufgenommen; von drei Fotografen

Sonntag, 29. Mai 2011

Über das Wesen der Natur (mit Nachtrag)

Am 26.5.2011 schrieb ich meinen beiden an Philosophie und Physik interessierten Freunden Hans Diel in Sindelfingen und Peter Hiemann in Grasse:

   habe gerade im Juni-Heft des ‚Spektrums der Wissenschaft‘ drei anregende Artikel über das ‚Wesen der Natur‘ gelesen. Hier die Kernaussagen:

(1) Michael Esfeld: In der Quantenphysik passieren Dinge, weil sie eine Propensität (= Neigung) dazu besitzen.

(2) Marcel Weber: In der Biologie wird der Phänotyp nicht allein durch Gene bestimmt; er erbt noch eine ganze Maschinerie gleich mit. Außerdem hat die Umwelt bestimmenden Einfluss.

(3) Gerhard Börner: Die String-Theorie postuliert 10 hoch 500 Welten, kann aber kein Experiment angeben, das klärt in welcher Welt wir gelandet sind. Die USA geben pro Jahr 100 Mrd. Dollar für biologische Forschung aus; heraus kommen 79.000 Seiten Papier. Biologen starren auf Petabytes an Daten, haben aber keine Theorie, um sie zu bewerten. Vielleicht haben wir die Grenze des Erkennbaren erreicht und kommen nur dann weiter, wenn sich die Natur als freundlich erweist.

Wirklich schön. Was sagen Sie dazu?

Am 27.5.2011 antwortete Hans Diel:

Die Artikelserie "Wesen der Natur" habe ich auch gelesen. Ich fand den ersten Teil,  wo es um einen kurzen Überblick über die Quantenphysik geht, noch einigermaßen gelungen (auch wenn nicht alles so ganz korrekt war; z.B. die Rolle Einsteins bei der Entdeckung der Verschränkung). Auf der letzten Seite, auf der Esfeld dann den Übergang zur Philosophie versucht, wird es teilweise albern  (siehe den von Ihnen zitierten Satz). Hier wird mein altes Vorurteil untermauert, dass die Philosophen oft nur Banalitäten wissenschaftlich verpacken, und dass sie, wenn es um Nicht-Triviales geht, oft höchst Zweifelhaftes formulieren.

Auch der Artikel von Weber scheint in diese Richtung zu passen, zumindest wenn man das von Ihnen Zitierte betrachtet. Ich habe den Artikel noch nicht ganz gelesen, sondern nur überflogen. Dabei hatte ich den Eindruck, dass der Philosoph Weber aus der Tatsache, dass man gewisse Zusammenhänge (noch) nicht gut genug versteht, eine philosophische Diskussion zum Thema "Kausale Zusammen­hänge" startet und dabei entdeckt, dass es nicht nur monokausale Zusammenhänge (= bijektive) gibt, sondern auch surjektive Beziehungen. Aber vielleicht würde ich nach genauerem Lesen meine Kritik abmildern.

Beim 3. Artikel  (von Börner, einem Physiker) werden die von anderen Autoren verbreiteten Zweifel an der String-Theorie wiederholt. Bei Smolin (von Börner zitiert) und bei Unzicker (das Buch kann immer noch von mir ausgeliehen werden) sind diese Zweifel und die Kritik noch wesentlich schärfer und fundierter zu lesen. Bei Unzicker werden auch massive Zweifel am "Weltmodell" der Kosmologen begründet, welches Börner als durch Beobachtung abgesichert und als abgeschlossen betrachtet. Sowohl Smolin als auch Unzicker tendieren zu einem "Ja" bei der Frage (= Überschrift des Artikels) "Naturwissenschaft in der Sackgasse?", zumindest soweit es die Physik betrifft.

Da Peter Hiemann dieses Wochenende aus Tunesien nach Grasse zurückkehrt, wird er sich vielleicht noch melden.

Am 1.6.2011 schickte mir Peter Hiemann den folgenden Text, den ich hiermit als Nachtrag veröffentliche:

Spektrum der Wissenschaft hat im Juni 2011 versucht, mit Artikeln zur Philosophie der Physik und Biologie zur Klärung des Wesens der Natur beizutragen.

Der Professor für Wissenschaftsphilosophie Michael Esfeld widmet sich einer Hypothese, dass es sich bei quantenphysikalischen  Superpositionen und Zustandsverschränkungen um Dispositionen der Natur handelt. Er glaubt, dass Karl Poppers Vermutung zutreffend sein könnte: Quantenmechanische Wahrscheinlichkeiten können als Maß für die Neigung (Propensität) interpretiert werden, dass Objekte der Natur zu bestimmten Wirkungen tendieren. Esfeld bezieht sich speziell auf den spontanen Zerfall radioaktiver Atome, deren Wirkungen keiner äußeren Ursache bedürfen.

Der Artikel beginnt vielversprechend, dass der Autor dem Ziel verpflichtet scheint, „die natürliche Welt als Ganzes zu ergründen“. In dem Artikel habe ich nichts über spezifische physikalischen Dispositionen erfahren, die sich durch spezifische Quanteneffekte manifestieren, wie etwa das Verhalten von Photonen in dem Spaltexperiment. Ich war sogar gespannt, ob Esfeld eine Sicht der Quantenwelt hat, die Bohrs und Heisenbergs  Kopenhagener Deutung dieser Welt ersetzt. Bohr und Heisenberg erkannten den  nicht-deterministischen Charakters von quantenphysikalischen Naturvorgängen. Wer wie Esfeld die natürliche Welt als Ganzes ergründen möchte, wird auch nicht umhin kommen, Dispositionen für hoch energetische physikalische Prozesse im Kosmos in seinen Hypothesen zu berücksichtigen. Verglichen mit Erwin Schrödingers Betrachtungen eines Physikers zum Phänomen Leben zeigt Esfelds Beitrag zum Thema „Wesen der Natur“ lediglich dessen Neigung zu tendenziellen Spekulationen über „naturphilosophischen Holismus“.

Der Professor für Philosophie Marcel Weber glaubt, dass seine Forschungsergebnisse über „Kausalitäten in der Zellbiologie“ einen wesentlichen Erkenntnisgewinn zur Molekularbiologie einer Zelle darstellen. Weber geht davon aus, dass die heutigen Biologen und Neurobiologen „Gene und DNA als einzige Informationsträger in einem Lebewesen ansehen“. Diese Behauptung trifft nicht zu. Viel mehr konzentrieren sich seit langem Biologen auf die Interaktionen zwischen Molekülen innerhalb der Zellen und zwischen Zellen verschiedener Organe. Insbesondere befassen sich Biologen mit den komplexen Phänomenen der Plastizität des menschlichen Immunsystems und des Gehirns. Bereits Darwins Evolutionshypothese postuliert die Interaktionen eines Lebewesens mit seiner Umwelt ohne von der Existenz der DNA ausgehen zu können. Weber vertritt eine mir unbekannte „Developmental Systems Theorie“. Nach Wikipedia:

Development systems theory argues that not only inheritance but evolution as a whole can be understood only by taking into account a far wider range of ‘reproducers’ or ‘inheritance systems’ – genetic, epigenetic, behavioural and symbolic  – than neo-Darwinism’s ‘atomic’ genes and gene-like ‘replicators’.

Diese weitreichende Sicht von Evolution ist durchaus angebracht. Auch ich vertrete die Auffassung, verschiedene menschliche Evolutionsprozesse zu berücksichtigen: biologische, geistige und gesellschaftliche. Da sich diese verschiedenen Evolutions­prozesse gegenseitig beeinflussen, ist es verlockend hinter den Abhängigkeiten ein „System“ zu vermuten und mutig, ein solches System zu postulieren. Das scheint Weber zu versuchen und spricht von „kausaler Demokratie“ in einer lebenden Zelle oder in einem lebenden Organismus. An anderer Stelle spekuliert er gar über die Existenz einer „Entwicklungsmatrix“, die „die Gesamtheit aller Faktoren umfasst, die es braucht, um neues Leben in Gang zu setzen“.

Die Development Systems Theorie wurde 1985 von der New Yorker Psychologin und Wissenschaftsphilosophin Susan Oyama begründet. Obwohl der Ansatz vielversprechend ist, scheint er sich nicht als Methode bei den wissenschaftlichen Akteuren bewährt zu haben. Ich lasse mich aber gern eines Besseren belehren.  Mir scheint, dass sich die Natur nicht in ein System zwängen lässt. Evolution ist nicht berechenbar.  

Übrigens bin ich in einem anderen Zusammenhang gelegentlich auf Roman Jakobson, einen der prägendsten Strukturalisten des 20. Jahrhunderts, aufmerksam geworden. Er arbeitete strukturalistische Zeichen-, Sprach- und Kommunikationstheorien aus. Nach Jakobson bedeutet Strukturalismus, Phänomene als ein strukturiertes Ganzes zu betrachten und die statischen oder dynamischen Gesetze des jeweiligen Systems freizulegen. Nach diesem Prinzip verfahren auch Physiker und Biologen. Bei Philosophen, von Ausnahmen wie Thomas Menzinger abgesehen, bin ich mir nicht so sicher. Jakobson war sich in zwei Dingen sicher:

  • Die Überwindung der Statik, die Vertreibung des Absoluten, das ist das wesentliche Pathos der neuen Zeit.
  • Die Gegenüberstellung von Synchronie und Diachronie war eine Gegenüberstellung von Systembegriff und Evolutionsbegriff. Sie verliert ihr prinzipielles Gewicht, sofern wir anerkennen, daß jedes System notwendig als Evolution vorliegt und andererseits die Evolution zwangsläufig Systemcharakter besitzt.
Erläuterung: Diachronie und Synchronie werden in den Fachwissenschaften als separate, sich methodisch ausschließende Ansätze betrachtet. Dem möchte ich hinzufügen: Evolution bedeutet, dass sich auch Charaktereigenschaften eines Systems zwangsläufig verändern.

Gerhard Börners Essay zur Frage „Naturwissenschaft in der Sackgasse“ gibt es nichts  Kritisches hinzuzufügen. Er begreift den Menschen mit seinen Einschränkungen als Produkt der biologischen Evolution. Der Mensch erkennt heute, dass „die Lebens­wissenschaften derzeit vor der Aufgabe stehen, der Komplexität ihres Gegenstandes und ihren Ansprüchen, Unmessbares und Unwägbares zu quantifizieren, gerecht zu werden.“ Die Physiker immerhin können mit ziemlicher Gewissheit die Phasen der „materiellen Evolution“ nachzeichnen: strukturloser Urzustand – verschiedene Elementarteilchen – leichte Atomkerne – Wasserstoffatome – Galaxien mit Sternen, Planeten. Danach entstand Leben auf der Erde einschließlich uns selbst. Börner denkt, dass „Fragen, die sich mit physikalischen Methoden allein nicht untersuchen lassen,  unweigerlich in metaphysische Bereiche führen.“ Immerhin ist er aber offen und optimistisch für Forschungen der Biologie (Genetik) und Neurowissenschaften. Man weiß heute, dass „die Dinge eben komplexer sind als zunächst vermutet. „Leben“ ist nicht einfach auf wenige Grundeigenschaften zu reduzieren wie die Materie.“

Börner ist sich bewusst, dass der heutige Forschungsbetrieb ziemlich industrialisiert ist und die meisten staatlichen Fördergelder „auffrisst“, ohne dass entsprechende neue Erkenntnisse, außer im technisch wissenschaftlichen Bereich, entstehen. Er hofft, dass auch Forschungsvorhaben, die gegen den eingefahrenen Betrieb schwimmen, von staatlicher Förderung nicht ausgeschlossen werden. Seine Hoffnung in Ehren, es klingt aber eher nach einem frommen Wunsch. Wie dem auch sei, die Natur und mit ihr die Wissenschaft war und ist immer für Überraschungen gut.

Freitag, 27. Mai 2011

Beruf oder Profession – was ist der Unterschied? (mit Nachtrag)

Mit Interesse habe ich einen Dialog zwischen einem australischen und einem kanadischen Kollegen verfolgt über die Frage, ob Informatiker eine Profession (wenn kursiv geschrieben, bitte englisch aussprechen) ausüben oder nicht. In der von der IEEE herausgegebenen Zeitschrift ‚Computer‘ schrieb zuerst Neville Holmes aus Tasmanien im Juli 2010 einen eher kritischen Artikel. Im Februar 2011 gab es eine Replik bzw. Ergänzung von Robert Fabian aus Toronto. Was geht uns diese Diskussion in anderen Erdteilen an, kann man fragen. Sie zeigt einerseits, dass gewisse Probleme universell sind, andererseits aber, dass sie kulturelle bedingte Nuancen besitzen.

Zuerst muss man erklären, dass Profession im englischen Sprach- und Kulturraum eine andere Bedeutung hat als das Wort Profession in der deutschen Umgangs­sprache. Der Webster, ein sehr verbreitetes amerikanisches Lexikon, bietet neben mehreren andern Bedeutungen auch diese an: 

A vocation or occupation requiring advanced education and training, and involving intellectual skills, as medicine, law, theology, engineering, teaching, etc.
Nicht jeder Job ist ein Beruf, noch ist jeder Beruf eine Profession. Die deutsche Übersetzung, die dem am nächsten kommt, heißt ‚akademischer Beruf‘, ist aber nicht dasselbe. Wenn Soziologen den Ausdruck Profession benutzen, dann meist im englischen Sinne. Die Worte Professionalität und Professionalisierung basieren auf dieser Bedeutung. Vier Kriterien werden als bestimmend angesehen, damit ein Beruf als Profession anerkannt wird:
  • Recht des Praktizierens nur aufgrund spezieller, meist akademischer Ausbildung.
  • Relative Autonomie in der Ausübungsweise der Tätigkeit, inklusive Selbstkontrolle. 
  • Beachtung übergeordneter gesellschaftlicher Interessen und ethischer Prinzipien.
  • Anerkennung durch Außenstehende.
Holmes meint, dass Informatiker in den letzten Jahrzehnten eher Rückschritte als Fortschritte gemacht hätten. Er meint sogar, dass der Beruf immer vager (engl. unfocussed) und unbedeutender (engl. increasingly irrelevant) würde. Wer Erfolg hat, verlässt den Beruf und wird Manager. Um das Bild als Profession zu verbessern, müsste endlich anerkannt werden, dass Programmieren nur ein Handwerk ist (engl. craft). Leute, die dafür keine Begabung haben, sollte man von dieser Tätigkeit fernhalten. Die akademische Ausbildung sollte sich andern Themen zuwenden, nämlich fortgeschrittenen Entwurfstechniken und neuen Anwendungsmöglichkeiten.

Fabian geht sogar noch einen Schritt weiter. Er meint, dass das Feld zu breit ist für eine einheitliche Profession. Er fragt sich, was die Leute, die Programme für die Steuerung von Atomrektoren schreiben, Web-Plattformen entwickeln und ERP-Systeme installieren, voneinander lernen könnten, oder welche Fachgesellschaft die Interessen aller drei Gruppen vertreten könne. In allen Anwendungsgebieten überwiege das praktische Wissen bei weitem die gemeinsamen theoretischen Grundlagen. Man sei bisher nicht über die Ansammlung von Heuristiken (engl. best practices) hinausgekommen. 

Eine ähnliche Diskussion für den deutsch-sprachigen Raum findet man bei Hornecker & Bittner (2003). Auch sie meinen, dass die Informatik „bislang nicht in der Lage ist, die klassischen Professionskriterien zu erfüllen“. Als Gründe werden genannt:
  • Die Informatik habe noch keinen stabilen wissenschaftlichen Kern entwickelt.
  • Grundlegender Prinzipien und Praktiken sind einem ständigen Wandel unterworfen.
  • Ethische Leitlinien gibt es zwar (bei der GI), sie finden jedoch wenig Beachtung
  • Es gibt immer noch mehr als 50% Quereinsteiger, die keine formale Informatik-Ausbildung besitzen.
Ich lasse diese Feststellungen unkommentiert stehen und möchte noch eine andere Zahl hinzufügen. Von den etwa 330.000 Personen, die in der Software-Branche in Deutschland beschäftigt sind, sind gerade einmal 7% (d.h. 24.000) in der entsprechenden Fachgesellschaft, der GI, organisiert. Das ist deutlich weniger als die Zahl der Informatik-Studienanfänger eines Jahres (etwa 35.000). Wenigsten daran sollten wir versuchen, etwas zu verändern.

Wie auch immer diese Diskussion sich weiterentwickelt, eines ist klar: Ohne professionelles Verhalten kommen auch Informatikerinnen und Informatiker nicht aus. Erinnern möchte ich daher an die Kriterien für Professionalität, wie sie im Endres/Gunzenhäuser-Buch (2010, S. 108) für Informatiker formuliert wurden:

„Sie müssen berücksichtigen, was für die Nutzer zweckdienlich und zumutbar ist, was für das Unternehmen notwendig und erschwinglich ist, was ohne unvertretbare Nebenwirkungen für Umwelt und Gesellschaft machbar ist, was nach dem Stand der Technik möglich ist, und was mit den zur Verfügung stehenden Fachleuten und Finanzmitteln realisierbar ist.“
Alle Ausbildenden und Lehrenden haben die Verantwortung, beim Nachwuchs das Bewusstsein für Professionalität fest zu verankern. Es beginnt im Elternhaus und endet mit der Pensionierung. Ob es wirklich wichtig ist, dass ein Beruf als Profession von Außenstehenden anerkannt ist, darüber kann man geteilter Meinung sein. Bestimmt erfolgt ein entsprechender Sinneswandel nur sehr langsam, vermutlich nicht innerhalb einer Generation.

Ich würde mich freuen, hierzu einige Kommentare der Leserinnen und Leser zu erhalten.

(ergänzter) Nachtrag vom 14.6.2011:

Hier gebe ich eine E-Mail-Korrespondenz wieder, die sich auf diesen Eintrag bezieht. Als Kommentar zum Blog  ist der Text bereits zu lang. Die Grenze liegt bei 4096 Bytes.


Am 30.5.2011 schrieb Manfred Broy aus München:

Den Beitrag zum Thema Profession habe ich mit Interesse gelesen, muss aber sagen, dass ich manches nicht so scharf akzentuiert finde. Das Wort Profession, auch englisch ausgesprochen, hat durchaus keine so scharf abgegrenzte Bedeutung. Ich denke, es hilft deshalb nicht viel, zu sehr an der Frage zu kleben, ob Informatik wirklich eine Profession ist.

Interessanter sind schon die anderen Fragen, die Sie aufwerfen. Als Erstes das Recht des Praktizierens nur auf Grund einer akademischen Ausbildung. Es gibt natürlich für Informatiker keine Zulassung wie für Ärzte oder Rechtsanwälte und es gibt − wie gesagt - viele Quereinsteiger, das ist Fakt. Die relative Autonomie in der Ausführungsweise der Tätigkeit inklusive Selbstkontrolle kann man Informatikern vielleicht zugestehen und selbst die Beachtung übergeordneter gesellschaftlicher Interessen und ethischer Prinzipien. Hier fürchte ich ist es um die Informatiker auch nicht schlechter gestellt als um andere Professionen. Die Anerkennung durch Außenstehende - na ja, ich denke, das ist auch kein Punkt, den man vertiefen muss.

Bestreiten würde ich einige der Aussagen gegen Ende, die Sie zitieren. Ich glaube wohl, dass Informatik bereits einen stabilen wissenschaftlichen Kern entwickelt hat. Man kann natürlich darüber diskutieren, wo dessen Grenzen genau sind und was dazu gehört und was nicht. Aber ganz so negativ sehe ich es nicht. Es stimmt natürlich, dass wir noch als junges Fach einem schnellen Wandel unterworfen sind. Man könnte das aber auch positiv sehen. Das ist immer noch ein sehr innovatives Fach.

Kurz und gut - ich weiß nicht, ob diese Art der Diskussion wirklich sehr viel beiträgt, der Frage näher zu kommen, die ich dann doch für wichtig halte − nämlich, was das Berufsbild des Informatikers ist. Das ist sicher noch sehr vielfältig und unscharf. Gerade daran müssen wir arbeiten, auch um jungen Leuten ein wenig Hinweise zu geben, was es heißt, Informatiker zu sein.

Am 31.5.2011 antwortete Bertal Dresen:
  
Ich gebe Ihnen Recht, dass die Frage, ob Informatik eine Profession ist, nicht von zentraler Bedeutung ist. Im Beitrag habe ich mich von den Zitaten über die Informatik etwas distanziert, ohne sie zu kommentieren. Ich hatte in der Tat gehofft, dass Leser dies tun würden. Schließlich sind die Aussagen von Hornecker/Bittner, die ich zitierte, nicht ganz neu. Sie gehen im Prinzip auf Britta Schinzels Beitrag im Informatik-Spektrum 2001 (Heft 2, 91-97) zurück.

Ähnlich wie im Endres/Gunzenhäuser-Buch versuche ich hier wieder von gewissen Vorurteilen und Clichés auszugehen, um mich mit ihnen auseinanderzusetzen - ein nicht ganz ungefährliches Unterfangen, wovor Sie mich damals bereits warnten. Außerdem sollte man diesen Beitrag als Ergänzung zu dem Vorgänger-Beitrag sehen, in dem ich fragte, ob man in Deutschland noch etwas anders als Systemarchitekten braucht. Die beiden Kommentare dazu stammen übrigens von einem Kollegen in Hoh-Chi-Min-Stadt, der in der Schweiz studiert hatte.

Der Frage, was ist der (wissenschaftliche) Kern der Informatik, würde ich sehr gerne nachgehen. Das möchte ich aber nicht alleine tun, sondern würde dabei gerne ihre Mithilfe in Anspruch nehmen. Als Ausgangspunkt könnte dafür der Beitrag vom Marc Snir in den CACM (2011, Heft 3, 38-41) dienen. Was halten Sie davon?

Am 3.6.2010 schrieb Manfed Broy:

danke für den Hinweis auf den Artikel von Marc Snir, den ich mit etwas gemischten Gefühlen gelesen habe. Das Meiste ist natürlich richtig, aber doch so offensichtlich, dass man darüber nichts schreiben muss. Andererseits geht die Analyse nicht sehr tief.

Ein Thema, mit dem ich mich schon vor vielen Jahren zusammen mit meinem Kollegen Jochen Schmidt auch in einem Informatik-Spektrums-Artikel (1999, Heft 3, 206-209) beschäftigt habe, ist das Spannungsverhältnis zwischen Informatik als Grundlagenwissenschaft, die sich mit den grundlegenden Fragen der Information beschäftigt und Informatik als Ingenieurwissenschaft, die die Gestaltung leistungsfähiger Systeme zur Informationsverarbeitung zur Aufgabe hat. Ich denke dieses Spannungsfeld verdient tatsächlich stärkere Beobachtung. 

Wie in dem von Ihnen empfohlenen Artikel dargestellt wird, kommt hinzu, dass heute Informatik eine große Rolle in vielen Anwendungsgebieten spielt. Spannend ist dabei nicht der Umstand, dass Informatik an vielen Stellen als Hilfswissenschaft eingesetzt wird. Ob die Texte, die man in Word oder Power Point schreibt, Texte in der Physik sind oder in den Wirtschaftswissenschaften, macht wirklich keinen großen Unterschied. Interessanter ist es aber, wenn die Informatik grundlegende Beiträge in den entsprechenden Gebieten leistet, wie etwa in der Modellierung, in den Biowissenschaften, in den Genwissenschaften, aber durchaus auch im Engineering durch fortgeschrittene Modelle, Simulation oder das, was man allgemein Virtual Engineering nennt. Ähnliches gilt in der Betriebswirtschaft, wo konsequenter Informatikeinsatz tatsächlich andere Möglichkeiten schafft, Firmen zu managen.

Dass es vor diesem vielfältigen Hintergrund sehr schwer fällt, ein klares Berufsbild für Informatiker zu finden, ist nicht überraschend. Dieses Thema verdient sicher Aufmerksamkeit.

Darauf antwortete Bertal Dresen am 6.6.2011:

wie Sie wissen, habe ich immer dafür plädiert, die Informatik primär als eine Ingenieurwissenschaft (engl. engineering) zu sehen. Ich meine dabei die Informatik als Ganzes, nicht nur System- und/oder Software-Ingenieurwesen. In Ihrem Artikel mit Joachim Schmidt von 1999, den ich damals mit Interesse las, ist klar zu spüren, dass diese Vorstellung nicht nur bei Amerikanern, sondern auch bei deutschen Hochschulangehörigen zu einen Minderwertigkeitsgefühl gegenüber der wertfreien Wissenschaft (engl. science) führt, da angeblich nur diese von der DFG gefördert wird. Das ist in meinen Augen vor allem ein psychologisches Problem, wenn nicht sogar ein Vorurteil, gegen das Leute wie Sie vehement ankämpfen sollten.

Die Medizin, die ich immer gerne als Vergleich zur Informatik heranziehe, hat es nicht nötig sich als Grundlagenwissenschaft (im obigen Sinne) zu positionieren, und erhält trotzdem massive staatliche Förderung. Mediziner (und Ingenieure) dürfen mit dem Argument des Nutzens, also der Notwendigkeit, argumentieren. Dazu sollte die Informatik sich endlich auch bekennen. Die so genannten 'freien' Wissenschaften brauchen dies nicht.

Der Teil der Informatik, den Sie als Grundlagenwissenschaft bezeichnen (Typtheorie, Formale Sprachen, Automatentheorie), lag mir persönlich immer etwas fern. Als Quereinsteiger in eine Industrie-Laufbahn konnte ich mich diesen Themen weitgehend entziehen. Von mir aus kann man diese Themen ruhig wieder zurück in die Mathematik versetzen, wo sie ja auch herstammen.

Demgegenüber wäre es sehr hilfreich, wenn sich Informatiker darauf besinnen würden, welche Grundlagen ihr Fach liefert, auf denen andere Fächer aufbauen können. Die zwei Beispiele, die Sie nennen, finde ich allerdings nicht besonders gut. Die Frage, was Information ist, scheint nämlich kaum einen Informatiker zu interessieren, sonst würde man nicht Shannons 63 Jahre alte Definition noch im Informatik-Duden verwenden. Geometrische, algebraische oder prozedurale Modelle für physikalische, chemische, biologische oder soziale Abläufe können auch von Mathematikern (oder mathematischen Physikern) stammen.

Mir würden eher Gleitkommazahlen, RSA-Verschlüsselungen; B-Bäume oder MP3-Kodierung als grundlegende Errungenschaften der Informatik einfallen − also sehr handfeste Dinge. Darauf wären Mathematiker, die ja Beschränkungen am liebsten ignorieren, nicht gekommen. Schließlich stehen diese Dinge jetzt allen Computer-Anwendern zur Verfügung.

Darauf antwortete Manfred Broy am 10.6.2011

Klar ist die Informatik – auch – eine Ingenieurwissenschaft. Ob sie das primär ist, ist ein interessanter Diskussionspunkt. Wirtschaftlich gesehen natürlich, ist sie das vielleicht auch ausschließlich, aber die überaus große wirtschaftliche und gesellschaftliche Bedeutung der Informatik sollte nicht den Blick darauf verstellen, dass es auch eine grundlegende Seite der Informatik gibt. Das hat nichts mit unterstellten Minderwertigkeitsgefühlen deutscher Hochschulangehöriger zu tun, ganz davon abgesehen, dass das eine etwas unglückliche Art der Diskussionsführung ist. 

Es geht ja nicht darum, ob man es nötig hat, sich als Grundlagenwissenschaft zu positionieren und es geht auch nicht um staatliche Förderung. Die Diskussion um den wissenschaftlichen Gehalt eines Faches – sowohl in Hinblick auf seine praktische Anwendbarkeit und die Herausforderung für das ingenieurmäßige Vorgehen wie gleichermaßen auf die Frage, welche grundlegenden Erkenntnisse ein Fach mit sich bringt – ist schon aus Fragen des wissenschaftlichen Selbstverständnisses unverzichtbar.

Ich denke, man sollte vorsichtig sein, über die übermächtige Rolle, die heute die Wissenschaft für die Wirtschaft spielt, die Seite der Wissenschaft nicht zu vergessen, die schlicht mit Erkenntnis zu tun hat. Das darf uns den Blick, gerade in der Informatik, nicht verstellen, grundlegende Fragen in Hinblick auf Information, Informationsverarbeitung und die Rolle der Informationsverarbeitungen in den unterschiedlichen Disziplinen zu verfolgen.

Zwar mag das Argument, dass das Sache der Anwendungsdisziplinen wäre, im ersten Augenblick zutreffen zu scheinen, aber ich glaube, dass das Thema Information, Informationsverarbeitung und die Rolle der Information für Vorgänge in unserer Welt von so grundsätzlicher Bedeutung ist, dass es unerlässlich ist, dass ein Fach wie die Informatik hier Gemeinsamkeiten findet, einheitliche Muster aufdeckt und auf die Art und Weise eine grundlegendere Sicht auf die Weltentwicklung. Beispielsweise habe ich mich gerade die Forschungen in den USA unter dem Stichwort "Cyber-Physical Systems" etwas genauer auseinander gesetzt. Auch wenn hier nur mühsam Fortschritte erreicht werden, diese grundsätzliche Vorstellung, diskrete Modelle für eine ganze Reihe von Aspekten der physikalischen Welt aufzustellen und den Zusammenhang zwischen den kontinuierlichen Modellen, die in der Physik ja sehr viel stärker verbreitet sind, und den diskreten Modellen herauszufinden, halte ich für faszinierend und ein gutes Beispiel für das Thema, um das es mir geht.

Ich denke, aus einer wissenschaftstheoretischen Sicht muss man sich völlig frei von Emotionen intensiv damit auseinander setzen, welchen wissenschaftlichen Stellenwert die Informatik hat und wie sich die Informatik zu anderen Disziplinen positioniert. Dies hat weder mit Standesbewusstsein noch mit Fragen der Förderpolitik zu tun. Es ist schlicht und ergreifend ein Muss für das Selbstverständnis einer Wissenschaft.

Nachtrag im Januar 2017

Ich bin selbst überrascht, das ich das Thema Professionalität erst in sechs Jahren wieder aufgreifen werde. Rainer Janßen brachte mich dazu.

Mittwoch, 25. Mai 2011

Braucht Deutschland nur noch Systemarchitekten?

Hinter dieser Frage stecken zwei verschiedene, aber durchaus verwandte Themen. Beginnen wir mit dem aktuelleren Thema, der Fremdvergabe in Niedriglohnländer (auch Offshoring genannt). Wer sich überlegt, welche Informatik-Aufgaben er nach Osteuropa oder Asien verlagern kann, der beginnt am hinteren Ende der Wert­schöpfungskette. Es sind zuerst Systemwartung und Systembetrieb. Die Wartung von Software (Fehlerbehebung, graduelle Weiterentwicklung) ist leichter zu verlagern als die Hardware-Wartung. Aber auch hier gibt es einen starken Trend in Richtung Fernwartung. Dank der Verfügbarkeit weltweiter Netze ist der Systembetrieb ebenfalls nicht mehr ortsgebunden, wenn man von den dem Arbeitsplatz zuge­ordneten Geräten absieht. Das Cloud Computing entspricht dieser Vorstellung.

Bei der Systementwicklung besteht eine mögliche Trennungslinie zwischen Entwurf und Implementierung. Die mit der Anforderungsdefinition befassten Mitarbeiterinnen und Mitarbeiter müssen wissen, was die Nutzer brauchen und akzeptieren. Sie müssen ferner wissen, wofür und wo es Nutzer gibt. Sie machen Vorgaben, die das Zielsystem erfüllen muss. Ob sie ebenfalls spezifizieren müssen, wie diese Vorgaben erfüllt werden, − also einen Grobentwurf machen − hängt von der Situation ab. Die Spezifikation, also die Entwurfsarbeit, muss zumindest soweit vorangetrieben werden, dass sichergestellt ist, dass das neue System in seine Umgebung passt. Neben der Funktionalität müssen auch alle Nutzer-Interaktionen identifiziert und die Systemschnittstellen festgelegt sein. Diesen Grad der Konkretisierung bezeichnet man im Allgemeinen als Systemarchitektur.

Sowohl den Detailentwurf, also die Strukturierung in Moduln und Komponenten, sowie die Implementierung selbst lässt sich delegieren, sofern eine hinreichende Spezifikation vorliegt. Zur Implementierung gehören auch die Validierung und die Verifikation, also die Inspektionen und das Testen. Wird statt einer Spezifikation vorwiegend mit Prototypen gearbeitet, wie bei der agilen Entwicklung, sieht die Situation etwas anders aus. Darauf soll hier jedoch nicht eingegangen werden.

Der zweite Themenkreis ist so alt wie die Informatik. Es ist die Frage, ob man in der Systementwicklung zwischen professionellen und handwerklichen Tätigkeiten trennen soll und kann. Angetrieben wurde diese Diskussion einerseits von dem Mangel an qualifizierten Entwicklern, andererseits von dem Wunsch Personalkosten zu sparen. Es sind dies übrigens dieselben Gründe, die heute für das Offshoring sprechen. Ich selbst erinnere mich an mehrere Versuche hier zu einer Antwort zu kommen. Fast alle schlugen fehl. Es war oft ein echtes Dilemma. Entweder war die eine Seite nicht bereit, nur nach detaillierten Vorgaben zu arbeiten, oder die andere Seite zog es vor, statt den Entwurf ausführlich zu dokumentieren, ihn lieber selbst zu implementieren. Fast überall auf der Welt wurde das Problem dadurch gelöst, dass die weniger anspruchsvollen Arbeiten von Berufsanfängern ausgeführt wurden, meist unter Anleitung von Routiniers. So lange es innerhalb der eigenen Organisation genügend Anfänger gab, funktionierte dies mehr oder weniger reibungslos. Gibt es keine Neuanstellungen, entfällt diese Lösung. Auch deshalb ist Offshoring heute so attraktiv.

Ein Ansatz, der in der Literatur große Beachtung fand, - ich habe in einem früheren Beitrag darüber berichtet - geht auf Harlan Mills von der IBM in Gaithersburg, MD, zurück. Es war die Idee des Chefprogrammiererteams. Ich erwähne dies nur deshalb, weil dieser Ansatz an der hier angeschnittenen Frage vorbeiging, ja er lief in eine diametral entgegengesetzte Richtung. Es wurde nämlich postuliert, die Implementierung nicht zu delegieren, sondern sie in der Hand von erfahrenen Programmierern zu belassen. Es war dies noch eine sehr primitive Vorstellung bezüglich industrieller Software-Entwicklung.

Die Arbeitsteilung, von der heute fast nur noch gesprochen wird, ist die zwischen Systemarchitekten[1] und System-Implementierern. Im Falle reiner Software-Projekte ist für Letztere die Bezeichnung Software-Entwickler üblich. Auf der Seite des Systemarchitekten befinden sich auch der Anwendungsberater oder System­analytiker (auch Requirements-Ingenieur genannt) sowie der Projekt-Koordinator. Ein Projekt-Koordinator hat die finanzielle und terminliche Kontrolle im Auge. Der Architekt hat primär eine technische Verantwortung. Zur Implementierungsseite gehören Programmierer und Tester. Je kleiner ein Projekt ist, umso weniger Arbeitsteilung ist angebracht, und umso eher werden alle oben erwähnten Rollen von derselben Person wahrgenommen. Der Arbeitsaufwand zwischen diesen beiden Tätigkeitsbereichen teilt sich etwa im Verhältnis 1:3 auf. Das Verhältnis kann von Projekt zu Projekt variieren. Auch spielt es eine Rolle, wie hoch der Grad der Werkzeug-Durchdringung ist, etwa bei der Code-Generierung.

Entscheidend für den Erfolg der skizzierten Arbeitsteilung ist, dass der System­architekt eine möglichst umfassende Verantwortung übernimmt. Er muss nicht nur für die Qualität des Entwurfs gerade stehen, sondern auch für die Qualität des Produkts. Das Endprodukt muss alle Vorgaben erfüllen, vor allem die bezüglich Leistung und Sicherheit. Auch wenn er die Implementierung nicht selbst übernimmt, muss er sie überwachen, und zwar im Sinne einer Bauleitung. Er muss wissen, welche technischen Lösungen gewählt und welche Validierungs- und Verifizierungs- Maßnahmen ergriffen werden. Deshalb muss er in der Lage sein, Detailentwürfe, Testpläne und Programmtext zu verstehen und zu bewerten. Vor allem aber muss er Prototypen und Fertigsysteme bewerten können. Er muss sich auf jeden Fall Feedback verschaffen, um selbst lernen zu können. Dabei lernt er vorwiegend durch Beobachten und Messen, weniger durch eigenes Tun. Nur wer in der Lage ist dazuzulernen, kann in Zukunft bessere Entwürfe machen. Der Architekt steht in der Regel zwischen Anwendern und Entwicklern. Er muss die Brücke bilden und Wissen aus beiden Gebieten zum Einsatz bringen – wahrlich keine leichte Aufgabe. Die Sache wird einfacher, wenn immer man selbst auch Anwender ist, etwa bei Entwicklungswerkzeugen.

So wie hier dargestellt, erfüllt ein Systemarchitekt die wichtigsten Kriterien einer professionellen Tätigkeit. Ob Programmierer und Tester dies ebenfalls tun, darüber wird in der Branche diskutiert. Was dabei alles eine Rolle spielt, soll bei anderer Gelegenheit vertieft werden.

Die generelle Antwort zu der Titelfrage heißt also Ja. Bereits im Jahre 2004 schrieb ich im Informatik-Spektrum: „Informatikerinnen und Informatiker müssen aus der sich ändernden Situation persönliche Konsequenzen ziehen. Sie müssen sich Aufgaben zuwenden, die hoch genug in der Wertschöpfungsskala stehen, damit ihre Personalkosten gerechtfertigt sind. Dazu gehören alle Aktivitäten, die nahe am Anwender ablaufen, so die Beratung, Schulung, Produktbewertung und Produktauswahl, sowie die Planung und der Entwurf von Informatik-Systemen.“ Wo es Ausnahmen gibt, können diese nicht als Regelfall angesehen werden.

Die Frage ist berechtigt, wie die Situation sich langfristig entwickeln wird. Werden die Informatiker in Schwellenländern, die heute die Implementierungen machen nicht auch in Zukunft die Systemarchitektur übernehmen wollen und können? Die Antwort hängt davon ab, wie sich der Markt entwickeln wird. Wenn in späteren Jahrzehnten Nutzer in den heutigen Schwellenländern den Ton angeben, also wichtiger sind als die in Europa und den USA, gibt es keinen Grund mehr, warum nicht auch die Systemarchitekten aus diesen Ländern kommen. Das oft benutzte Argument, dass man immer auch einen Teil der industriellen Fertigung im eigenen Lande behalten sollte, mag vielleicht für Maschinen und Automobilbau gelten, in der Informatik gilt es heute bereits nicht. Nur ein ganz geringer Teil der Hardware eines Notebooks oder eines Smartphones wird heute in den USA oder in Europa produziert. Nur Software ist noch eine Ausnahme.



[1] Obwohl bei allen Tätigkeiten sowohl weibliche wie männliche Mitarbeiter gemeint sind, benutze ich hier der Einfachheit halber nur die männliche Form der Tätigkeitsbezeichnung.

Montag, 23. Mai 2011

Meisterwerke der Technik – auch in der Informatik?

Der erste Teil des heutigen Titels knüpft an das Motto des Deutschen Museums in München an – Meisterwerke der Naturwissenschaft und Technik. Seit über 100 Jahren wird dort anhand einzelner Exponate gezeigt, wie sich die Technik in unserem Lande entwickelt hat. Insbesondere werden die Leistungen einzelner deutscher Ingenieure oder Erfinder herausgestellt. Das Ganze geschieht vor allem zu Lehrzwecken.

Wie viele andere Kollegen bin ich der Ansicht, dass es der Informatik gut täte, ihren Ingenieur-Charakter stärker zu betonen. Ingenieure werden von dem Motiv geleitet, Probleme der Gesellschaft und der Wirtschaft zu lösen. Sie wollen ihren Mitmenschen konkrete Produkte und Dienste an die Hand geben, die ihnen das Leben erleichtern oder verschönern. Genauso wie Architekten können auch Ingenieure ihre guten Ideen nicht allein durch Texte und Bilder darstellen. Man muss das Produkt selbst sehen und erfahren, und zwar am besten in seiner Nutzungs­umgebung. Manchmal reicht auch ein verkleinertes Modell in Pappe oder Holz. Ich spreche dabei zunächst nur von sichtbaren und mit Händen fassbaren Produkten.

Nach der vom Kollegen Friedrich L. Bauer in dankenswerter Weise initiierten und betreuten Informatik-Ausstellung im Deutschen Museum gab es immer wieder Anläufe, diese Ausstellung zu ergänzen. Die von Bauer ausgewählten Exponate stellen primär die Hardware-Entwicklung dar. Das spiegelt sich auch in der Gliederung in Analoge mathematisch-mechanische Instrumente und Maschinen, Digitale Technologie und Programmgesteuerte Automaten wider. Die Software fehlt weitgehend. Bisher stießen alle Versuche, hier etwas Entsprechendes zu definieren, auf Schwierigkeiten. Erinnern möchte ich dabei vor allem an den Vorschlag von Ernst Denert und Klaus-Peter Löhr [1], nicht Produkte sondern grundlegende Prinzipien und Anwendungs­abläufe darzustellen und zu erklären. Leider ist auch daraus nichts geworden.

Das in Washington, DC, ansässige Smithsonian Museum ging allerdings den Weg, echte historische Produkte zu sammeln und für die Darstellung aufzubereiten. Als Beispiel dient der ursprüngliche BASIC-Interpreter, den Bill Gates für den Altair-Rechner schrieb – einschließlich Dokumentation und Werbematerial. Hier wird also nicht nur an den oberflächigen Bedarf von sporadischen Besuchern gedacht, sondern auch an das Interesse forschender Wissenschaftler, die sich auch die nötige Zeit nehmen können. Vor allem die mündlich durchgeführten und akustisch aufgezeichneten Interviews mit Pionieren ergänzen die gesammelten Objekte.

Die erwähnten Ansätze versuchen mehr oder weniger das Interesse von Laien oder von Historikern zu befriedigen. Letztere sind besorgt, dass wichtige kulturelle Errungen­schaften der Menschheit verloren gehen könnten, und damit vergessen werden. Mir geht es um ein völlig anderes Anliegen. Leider gibt es keinen besseren Weg, um zukünftigen Informatikerinnen und Informatikern zu erklären, was gute oder weniger gute Entwurfsideen sind, als ihnen Beispiele zu zeigen. Wenn es uns schon nicht gelingt, solches Lehrmaterial in öffentlichen Einrichtungen zu sammeln, so sollte man andere Wege suchen. Viele deutsche Informatik-Institute gingen den Weg, sich eine eigene Sammlung historischer Geräte zuzulegen. Auch hier fehlt in der Regel der Software-Aspekt. Ich möchte deshalb einen Vorschlag machen. Ich will mich dabei allerdings nicht auf Software beschränken. Ich habe nämlich die Befürchtung, dass bereits zu viele Informatik-Professoren Informatik mit Software gleichsetzen. Dem möchte ich gegensteuern. 

Ich schlage deshalb vor, dass entweder die Gesellschaft für Informatik (GI) oder aber der Fakultätentag Informatik der Universitäten im Verbund mit dem Fachbereichstag Informatik der Fachhochschulen einen Wettbewerb ‚Informatik-Produkt des Jahres‘ ausschreiben und durchführen. Als Teilnehmer kämen alle mit der Informatik-Ausbildung befassten Institute infrage. Ich möchte mich damit bewusst von ähnlichen Wettbewerben der kommerziellen Medien absetzen. Deren primäres Ziel scheint es zu sein, Aufmerksamkeit zu erzeugen und dadurch ihren eigenen Absatz zu steigern.

Um nicht immer zwischen Äpfeln und Birnen hin und her gerissen zu werden, müsste man mehrere Produktkategorien unterscheiden – allerdings nicht zu viele. Beispiele wären: Smartphones, Betriebssysteme für Arbeitsgruppenrechner, Betriebssysteme für mobile Geräte, Web Browser, Suchmaschinen, Textverarbeitung, elektronische Post, Datenbanken, Fotobearbeitung, Navigation oder Heimsport. Es gibt nämlich kein bestes Produkt schlechthin, sondern immer nur eines für bestimmte Teilgebiete. Ein Hammer ist nicht auch da das beste Werkzeug, wo ein Spaten oder ein Bohrer benötigt werden.

Dem Wettbewerb müssten Bewertungskriterien mitgegeben werden, etwa ausreichende Funktionalität für den Zweck, Sparsamkeit der Lösung, Sicherheit gegen Missbrauch, Akzeptanz durch die Nutzer. Man müsste eventuell unterscheiden zwischen dem besten und dem innovativsten Produkt. Das ist nicht notwendiger­weise dasselbe. Manchmal ist es sogar leichter, sich auf das innovativste Produkt zu einigen als auf das Beste. Indem ein Zeitraum für das Alter des Produkts vorgegeben wird (etwa 2-3 Jahre), würden auch zeitliche Veränderungen über die Jahre sichtbar. Neue Versionen eines Produkts sollte man als neue Produkte behandeln, also Windows 7 getrennt von Windows Vista oder iPhone 4 getrennt von iPhone 3G.

Außer Produkten könnten auch Dienste in den Wettbewerb einbezogen werden. Aus pädagogischer Sicht ist es wichtig, immer an beide Formen der Ingenieurleistung zu erinnern. Ein Dienst kann manuell – also ohne Werkzeuge – erbracht werden, kann aber auch teilweise oder gar vollständig automatisiert sein. Nur Letzteres erlaubt es, ihn mit abnehmenden Kosten zu reproduzieren. Automatisierte Dienste sollten daher für den Wettbewerb bevorzugt werden.

Wenn die Kriterien, was beurteilt wird und wer teilnimmt, eindeutig sind, könnte die Auswahl so ablaufen wie bei der Wahl zum Sportler des Jahres. Jede Fakultät (oder jeder Lehrstuhl) hätte eine Stimme. Die Liste der Produkte oder Dienste könnte offen sein und dürfte von jedem zugelassenen Teilnehmer ergänzt werden. Es wäre natürlich hilfreich, wenn nur Produkte bewertet würden, die die Teilnehmer kennen. Man müsste sich daher überlegen, wie man unqualifizierte Angaben verhindern oder eliminieren kann. Den Gewinnern könnte auf Wunsch eine Urkunde ausgestellt werden. Ein Geldpreis ist nicht erforderlich.

Als Nebeneffekt des Wettbewerbs erhoffe ich mir einen Schub in Richtung eines stärkeren Praxisbezugs bei der Informatik-Ausbildung. Wenn man als Lehrender sich überlegen muss, welches heutige, im Markt verfügbare Produkt als Vorbild gelten kann, muss man sich mit ihnen beschäftigen. Produkte aus der Frühzeit der Informatik, d.h. aus der eigenen Studienzeit, spielen keine Rolle dabei. Auch könnte es bei einigen Kollegen einige Überwindung kosten zu sagen, dass alle in der Praxis relevanten Produkte nichts taugen. Schließlich ist es kein Problem, wenn Professoren ihre Studierenden in dieser Sache um Rat fragen, sollten ihnen die notwendigen Produktkenntnisse fehlen. Wen es dabei stört, dass zu wenig deutsche Produkte nominiert werden, könnte eine stärkere Produktorientierung in der Ausbildung verlangen, also einen Schwenk veranlassen weg vom Reden, hin zum Tun – ein weiterer ganz erfreulicher Nebeneffekt.

Zusätzliche Referenz

1.   Denert, E., Löhr, K.-P.: Towards a Software Museum: Challenges und Opportunities. In: Hashagen,U., Keil-Slawik,R., Norberg, A. (eds) (2003): History of Computing: Software Issues. Springer, Heidelberg

Samstag, 21. Mai 2011

Reise in die Zentralschweiz

‚Vo Luzärn uf Wäggis zue...‘


  Eine Frühlingsreise zum
Vierwaldstätter See vom 23.-30.4.2011

Siehe Diashow auf meiner Homepage
(PW-geschützt)

Freitag, 13. Mai 2011

Innovations- und Entrepreneurpreis der GI

Die Gesellschaft für Informatik e.V. (GI) hat diese Woche den Innovations- und Entrepreneurpreis für das Jahr 2011 ausgelobt. Der Preis ist mit 5.000 Euro dotiert und wird auf der GI-Jahrestagung im Oktober 2011 in Berlin vergeben. Es sollen „informatikbezogene Erfindungen, Innovationen und einschlägige Unternehmens-gründungen ausgezeichnet werden“, so heißt es in der Ausschreibung, die per E-Mail an alle Mitglieder ging. „Der Informatikbezug ist weit gefasst und bezieht Hardware, Software sowie Anwendungen und Plattformen gleichermaßen mit ein. Ein zugehöriges Patent kann beantragt oder erteilt sein, dies ist aber nicht Bedingung.“ Einsendeschluss ist der 31. Juli 2011.

Der Preis knüpft an den bisherigen Innovationspreis an, der seit 2005 fünf Mal vergeben wurde. Alle bisherigen Träger dieses Preises sind auf der Homepage der GI vorgestellt, zusammen mit einer kurzen Beschreibung der ausgezeichneten Innovation. Im Jahre 2010 fand keine Ausschreibung statt. Obwohl darüber nicht berichtet wurde, fand im letzten Jahr anscheinend innerhalb des Vorstands oder des Präsidiums der GI eine Evaluierung der fünf früheren Preisverleihungen statt. Als Konsequenz daraus wurde dem Preis das französische Wort ‚Entrepreneur‘, das auch im Englischen benutzt wird, angefügt. Ich kann diese Entscheidung sehr gut nachvollziehen.

Bei Innovationen denken die meisten Menschen an technische Neuerungen, die sich in Produkten oder Prozessen niederschlagen. Manchmal werden Innovationen auch mit Erfindungen gleichgesetzt, was aber nicht richtig ist. Erfindungen können zu Innovationen führen, müssen aber nicht. Erfindungen haben den großen Vorteil, dass es für sie einen klaren, in der gesamten Welt anerkannten Maßstab gibt, nämlich die Patentierbarkeit. Bei Informatik-Erfindungen bedeutet dies in der Regel, dass ein Mitarbeiter eines Patentamtes, der meist nicht Informatiker ist, den Neuigkeitsgrad und die wirtschaftliche Relevanz beurteilt. Außerdem muss der Erfinder selbst von dem Wert seiner Idee überzeugt sein, ehe er diesen Weg geht. Wie in einem früheren Beitrag über die Software-Branche in diesem Blog nachgewiesen, profiliert sich die Software-Industrie immer stärker als Patentanmelder. Dennoch hat sich die GI entschlossen, diesem Kriterium nur geringes Gewicht beizumessen.

Durch die Hinzufügung des Worts ‚Entrepreneur‘ wird der unternehmerische oder nicht-technische Aspekt einer Innovation als weiteres Kriterium klar benannt. Jede Unternehmensgründung setzt ein Geschäftsmodell voraus. Vereinfacht ausgedrückt, es muss eine Vorstellung dafür vorhanden sein, wie das eingesetzte Kapital verzinst wird. Die Praxis vieler Internet-Firmen, die wussten wie man möglichst viel Geld ‚verbrennt‘, fällt nicht darunter, noch die eher sozial denkenden Unternehmen, die sich darauf beschränken, Geschenke zu verteilen. Eine technische Idee kann noch so schön sein, ohne tragfähiges Geschäftsmodell sollte man sie schnellstens vergessen.

Auch für die in der Lehre tätigen Kolleginnen und Kollegen ist ein Hinweis auf die Rolle des Unternehmers in unserer Branche sehr nützlich. Eine auf die Zukunft ausgerichtete Qualifizierung des Nachwuchses muss über die heute vorhandenen Tätigkeiten und Arbeitsplätze hinausdenken. „Es genügt nicht, die Eliten von Morgen in den Methoden und Techniken von heute und deren theoretischen Grundlagen – sofern es sie gibt – auszubilden. Sie sollten vielmehr lernen, neue geschäftliche Chancen zu erkennen und zielgerichtet zu ergreifen. ‚Entrepreneurship‘ ist wichtiger als ‚employability‘, um es neudeutsch zu sagen.“ So schrieb ich in einem früheren Eintrag in diesem Blog. Diese Preisausschreibung bietet eine weitere Chance, Vorbilder für junge Menschen sichtbar zu machen. Sie leistet damit einen pädagogisch sehr wichtigen Beitrag.

Es wäre von Vorteil, wenn die Geschäftsführung der GI sich dazu entschließen könnte, die für die Preisverleihung angewandten Kriterien in einem Fragebogen für Antragsteller zusammenzufassen. Für die Ernennung zum GI Fellow gibt es einen derartigen Fragebogen schon länger, obwohl die Ernennung zum Fellow die GI weniger Geld kostet als der Innovationspreis.

Ich wünsche dem Preis ein hohes Maß an Aufmerksamkeit und viele gute Bewerbungen. Das ist nämlich die Voraussetzung dafür, dass die Jury eine echte Wahlmöglichkeit bekommt. Überzeugende Preisideen wiederum regen andere Innovatoren an, sich ebenfalls anzustrengen. Ich freue mich sehr, dass mit der Wiederbelebung dieses Preises die GI zum Ausdruck bringt, dass sie auch an die Belange der Praxis denkt, und sich nicht nur der Wissenschaft sondern auch der Wirtschaft verpflichtet fühlt.