Freitag, 8. Juli 2011

Hartmut Wedekind über Daten- und Prozessmodellierung

Hartmut Wedekind ist seit 2001 emeritierter Professor für Datenbanksysteme der Universität Erlangen-Nürnberg, wo er seit 1979 lehrte. Von 1969 bis 1979 war er Professor für Informatik und BWL an der TU Darmstadt. Er war 1972 Mitgründer des dortigen Fachbereichs Informatik. Zuvor war er von 1962 bis 1969 Leitender Systemingenieur bei der IBM. Wedekind hatte in Darmstadt Wirtschaftsingenieurwesen studiert, erwarb in Berkeley den M.S. in Engineering und promovierte 1963 in Darmstadt in Operations Research.


Bertal Dresen (BD): Viele Kollegen sehen die Informatik als die Wissenschaft der Modellierung an. Auch Sie haben sich wiederholt in dieser Richtung geäußert und schlugen sogar den Namen ‚Schematik‘ als Ersatz für Informatik vor. Wieso ist diese Meinung berechtigt? Wird die Informatik (als Wissenschaft und Praxis) dieser Erwartung gerecht? 

Hartmut Wedekind (HW): Das Begriffspaar ‚Schema/Instanz‘ durchzieht die gesamte Informatik und ist von fundamentaler Bedeutung in Programmierung und Modellierung. Man kann auch Typ/Ausprägung dazu sagen. Ein Schema sieht einen Gegenstand als etwas Allgemeines oder Universales, eine Instanz ist demgegenüber etwas Einzelnes, Singulares oder Partikulares. Das ist einfach zu verstehen. Man braucht nicht in den heiklen und strittigen Informationsbegriff einzusteigen, auf dem der Begriff Informatik fußt. Modelle, über die wir in der Informatik reden, sind auch Schemata, sprachliche Gebilde und keine Mockups, die in der Automobilindustrie als Modelle zu sehen sind.

 BD: Ich erinnere mich sehr gut an eine Zeit – es muss in den frühen 1970er Jahren gewesen sein – als meine Kollegen in der Anwendungsentwicklung, die vorher Copics und Mapics entwickelt hatten, ordnerweise Unternehmensmodelle produzierten. Wenn ich mich recht erinnere, handelte es sich dabei vorwiegend um Datenmodelle. Auch in der frühen Phase von SAP spielten Informationsmodelle eine große Rolle. Um was ging es damals? War das eine Marotte oder wurde da langfristig etwas Vernünftiges draus?

HW: Ich weiß nun nicht mehr so genau, ob die Anwendungssysteme, die Sie erwähnten, IMS-basiert waren. Wahrscheinlich. Man pinselte Flipcharts voll mit hierarchischen IMS-Diagrammen, die man 1:1 in Codasyl-Diagramme umsetzen konnte. Copics und Mapics sind, wie auch die frühen betriebswirtschaftlichen SAP-Modelle, aus heutiger Sicht imponierende „vorsokratische“ Arbeiten, die eine Riesenkomplexität in Sachen Änderungsdienst zu bewältigen hatten. Sie werden mich fragen, wer ist denn dann der Sokrates. Ganz einfach: Der heißt im Business Data Processing Ted Codd (1923-2003) von der IBM (Almaden Research Lab). Seine paradigmatische Arbeit hieß: ‘A Relational Model of Data for Large Shared Data Banks’(1970). Das wichtige Wort ist ‚to share‘ (gemeinsam haben). Über das ‚to share‘ kommt Integration zustande. Und das Problem des Änderungsdienstes konzentriert sich auf die Datenbank und läuft nicht über  mehr oder weniger unkontrollierte Dateisysteme ab. 

Heute werden Datenbanken als ‚Enterprise Integration Pattern‘ geführt (siehe das gleichnamige Buch von Hohpe und Woolf (May 2010,14. Aufl., 683 Seiten)) und hier den Beitrag von Martin Fowler über ‚Shared Database‘. Der Hohpe/Woolf ist ein wichtiges Katalogbuch und ist zu vergleichen mit den wichtigen Katalogbüchern im Ingenieurwesen, z.B. ‚Der Dubbel‘ oder ‚Die Hütte‘ im Maschinenbau. Dass heute Anwendungen, auch die berühmten SAP-Anwendungen in der ERP-Welt, auf Datenbanken laufen, ist eine Selbstverständlichkeit. Anders geht es auch gar nicht. Die Datenbank war ein Integrationsschub par excellence. Riesige Leistungen sind mit diesem Integration Pattern verbunden. Man denke nur an das Lebenswerk von Jim Gray (1944 –2007), Turing Award 1999, und seine enormen Beiträge zum System R der IBM. „However, integration must go on“, wie wir gleich sehen werden.

BD: Kurz darauf begannen unter anderem Kollegen im Wiener Labor der IBM damit, Prozesse zu modellieren. Sie nannten das Workflow-Management. Auch entstanden Produkte daraus, die später von deutschen Kollegen (im PPDC Sindelfingen) weiterentwickelt wurden. Auch das WZ Heidelberg (z.B. der Kollege Dadam) betätigten sich in dieser Richtung. Was ist aus diesen Ideen und Entwicklungen geworden? Sind sie in Vergessenheit geraten oder wirken sie – evtl. unter anderer Bezeichnung – heute noch weiter?

HW: Nach Thomas Kuhn (1922-1996), Verfasser des bekannten Werkes ‚The Structure of Scientific Revolutions‘ (1962), vollzieht sich Wissenschaft nicht kontinuierlich, sondern in Schüben. Einen Schub nennt Kuhn einen Paradigmenwechsel (paradigm shift), ein Wort, das selbst Politiker heute ohne Scheu in den Mund nehmen. Ihre Frage deute ich so: Und wie ging es dann weiter nach Codd, dem Sokrates der Datenbanksysteme, insbesondere in den so um 1990 aufkommenden, datenbankbasierten Workflow- und Prozess-Systemen? Gibt es ein neues Paradigma? Paradigmenwechel deuten sich nach Kuhn an, wenn Wissenschaftler unruhig werden, weil diverse Phänomene nicht ordentlich behandelt werden können. Die Unruhe ist deutlich sichtbar, insbesondere, wenn man die  aufgeblasene Prozessliteratur, ein Getöse, verfolgt. 

Meine frohe Botschaft lautet: Ja es gibt ein solches Paradigma, das von außen betrachtet noch nicht so klar konturiert, von innen aber nach intensivem Studium sichtbar wird. Ich sage es kurz ohne ein sphinxhaftes Ratespiel: Es ist der OMG-Standard BPMN 2.0: Business Process Model & Notation. Das durch ein Ampersand abgesetzte Wort ‚Notation‘ ist wichtig. Wer modelliert, braucht eine sorgfältige Notation, eine Beschreibungs­sprache. In der Physik und in der physikalischen Modellierung ist es – sagen wir seit Newton – unstrittig, dass man die Notation ‚Mathematik‘ braucht. In BPMN 2.0 ist vor allen Dingen das filigrane Ereignissystem hervorzuheben. 

Wenn BPMN eine Art Mathematik für Prozessbeschreibung wird, dann ist das Paradigma da. Zum Paradigmenwechsel des BPMN gehört natürlich auch die Regelunabhängigkeit, die ‚rule independence‘. Damit ist gemeint, dass Regeln unabhängig von Prozessen gepflegt werden können. Regeln werden deklarativ abgefasst. Das Ausgliedern führt zu „dünnen“, übersichtlichen Prozessen (‚thin processes‘). Bis sich ein Paradigma durchsetzt, dauert es nach Kuhn manchmal fünf bis zehn Jahre und erledigt sich dann auf biologische Weise, weil  die konservativen Altvorderen wegsterben. Das Ausgliedern der Regeln heute und das Ausgliedern der Daten zu Codd‘s Zeiten weisen eine verblüffende Analogie auf, über die man systematisch nachdenken kann.

BD: Unter der Bezeichnung ARIS machte Kollege A.W. Scheer eine Modellierungstechnik populär, die meines Wissens weltweit Anklang fand, besonders im SAP-Umfeld. Ich sehe darin einen der herausragenden Erfolge der deutschen Informatik. Sicherlich hat ARIS auch Schwächen, aber seine praktische Relevanz schien dies nicht zu beeinträchtigen. Oder sehe ich das falsch?

HW: Die IDS Scheer AG, wie auch die Software AG und SAP, waren u.a. am Zustandekommen von BPMN 2.0 beteiligt. Ich nehme von außen an, dass die Erfahrungen aus ARIS mit seinen EPK (Ereignisgesteuerte Prozessketten) in BPMN  2.0 eingeflossen sind.

BD: Ich hatte den Eindruck, dass im Umkreis von SOA (Service Oriented Architecture) das Thema Modellierung in einen größeren Rahmen eingebettet und wiederbelebt wird. Ich erinnere mich in dieser Hinsicht an mehrere vier Buchstaben lange Abkürzungen wie WSDL, BPEL usw. Ist nicht SOA mit unrealistischen Erwartungen überfrachtet gewesen und hat immer noch Schwierigkeiten akzeptiert zu werden?

HW:  SOA ist als Ideal zu interpretieren. Es heißt „Kinder brauchen Märchen, Erwachsene brauchen Ideale“. Ohne Ideale geht bei genauerem Hinsehen auf dieser Erde nichts Ordentliches. Ohne Ideal gibt es noch nicht einmal die Figur eines Kreises mit ‚pi x Durchmesser‘ als Umfang. SOA ist eine Architektur, mit einer Schicht, die Volker Stiehl (SAP) Verbundanwendungen nennt (composite applications), das sind im Wesentlichen die Geschäftsprozesse und einer untergeordneten Schicht, die alle Ressourcen enthält (backend). Dazu gehören alle ERP-Systeme, Altbestände (legacies), Datenbanken, Fremdsoftware etc. Gefordert wird in einer modernen SOA-Interpretation, dass die Prozesse unabhängig von den Ressourcen sind. 

Wir haben nach dem 4. Juli 1776, der für die USA konstitutiv war, in der Informatik humorvoll gesprochen eine Unabhängigkeitserklärung nach der anderen erlebt. Ted Codd mit seiner ‚data indepedence‘, dann die Absonderung der Regeln von den Prozessen in einer ‚rule independence‘, und nun die Unabhängigkeit der Prozesse von den sich dauernd verändernden Ressourcen. Das dauernde Sich-Ändern macht uns auf Geschäftsprozessebene kaputt. 

Prozessunabhängigkeit ist aufregend, insbesondere wenn, wie Stiehl (SAP) das tut, die Ressourcen-Anforderungen von Prozessen auch mit BPMN 2.0 formuliert werden können. Alles fließt (so sagte Heraklit), alles ist irgendwie als Prozess in Bewegung. So gesehen ist BPMN uralt, und deshalb so schön. WSDL und BPEL sind aus Prozess-Modellierungssicht Randerscheinungen, die kommen und vergehen. Die fließen selbst.

BD: Vor einiger Zeit verwiesen Sie mich auf Dokumente zu BPMN (Business Process Modeling Notation) der OMG (Object Management Group). Ist das – wie es so schön heißt – alter Wein in neuen Schläuchen? Oder steckt da mehr dahinter? Muss man diese Entwicklungen als Informatiker ernst nehmen?

HW: Oh ja, es steckt mehr dahinter, wie ich versucht habe darzulegen. Die Entwicklung ist für die nicht steuerfinanzierte Informatik existenziell. Es gibt in der Informatik, neben steuerfinanziert und nicht-steuerfinanziert, noch eine alte Einteilung in ‚number crunchers‘ und ‚data crunchers‘. Stellen Sie sich mal vor, man amputiert, wie in der akademischen Informatik, die ‚data crunchers in business applications‘ in Gänze. Gute Nacht. Dann haben wir nur noch steuerfinanzierte „number crunchers“. Das ist eine böse Bemerkung. Sie zielt auf die dominante Stellung der Mathematik ohne eine sprachgebundene Logik als Grundlage im Grundstudium der Informatik. Darüber ließe sich vieles sagen.

BD: Die deutsche Informatik, und hier speziell die Wirtschaftsinformatik, scheint dem Thema Modellierung einen hohen Stellenwert einzuräumen. Schon seit Jahren gibt es eine eigene deutsche Tagungsreihe. Haben Sie den Eindruck, dass hier die richtigen Themen verfolgt und die richtigen Akzente gesetzt werden? Wenn nein, was sollte sich ändern?

HW: Ich bin reuiger Gründer eines ersten Studiengangs für Wirtschaftsinformatik an der TU Darmstadt. Ich kenne meine Pappenheimer, will ich damit sagen. Kennen Sie die Fabel vom ‚Chicken and Pig‘ (siehe z.B. Wikipedia)? Das Huhn schlägt vor, ein Restaurant mit dem Namen ‚Ham and Eggs‘ aufzumachen. Klar ist, das (arme) Schwein der systemorientierte Informatiker ist ein solches muss geschlachtet werden, um an ‚Ham‘ zu gelangen. Das ‚Chicken‘, der Wirtschaftsinformatiker, legt lässig ein paar Eier und schreitet zur nächsten Tat. 

BD: Vielen Dank, Herr Wedekind, für das mitreißende Tutorial. Ich hoffe, dass die beiden Fraktionen unseres Fachgebietes uns Ihren tierischen Vergleich nicht allzu sehr verübeln.

Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.