Dienstag, 10. September 2013

Hasso Plattner über Big Data, Cloud Computing und deutsche Besonderheiten

Hasso Plattner (*1944) ist Deutschlands erfolgreichster und einflussreichster Informatiker, zumindest im internationalen Vergleich und aus Sicht der Praxis. Er gründete 1972, zusammen mit vier Kollegen die Firma SAP, in der er 1979 die Gesamtverantwortung für den Bereich Technik übernahm. Später war Plattner gleichberechtigter Vorstandssprecher der SAP AG neben Dietmar Hopp. Plattner leitete unter anderem das Forschungs- und Entwicklungszentrum der SAP im kalifornischen Palo Alto, das 1998 gegründet wurde. Außerdem nahm er einen Lehrauftrag im Fachbereich Wirtschaftswissenschaften der Universität Saarbrücken wahr. Seit 2003 ist Plattner Aufsichtsratsvorsitzender der SAP AG. Plattner besitzt laut Forbes-Magazin ein geschätztes Vermögen von nahezu sieben Milliarden US-Dollar. Seit seinem Rückzug aus dem Tagesgeschäft der SAP engagiert sich Plattner als Mäzen. Er gilt als einer der bedeutendsten privaten Wissenschaftsförderer in Deutschland. Im Jahre 1998 gründete er das Hasso-Plattner-Institut (HPI) für Software-Systemtechnik an der Universität Potsdam. Anfang Oktober 2005 richtete Plattner mit der Stanford University das ‛Hasso Plattner Institute of Design“ ein. Plattner hat Nachrichtentechnik an der Uni Karlsruhe studiert. Er war von 1968-1972 als Systemberater bei der IBM in Mannheim tätig.                                                         

 

Bertal Dresen (BD): Der deutsche Bill Gates, so werden Sie von John Hennessy (Stanford) und Dave Patterson (Berkeley) genannt, zwei amerikanischen Computer-Pionieren. Wie jeder Vergleich so beleuchtet auch dieser nur einen Teil der Wahrheit. Gelesen habe ich diesen Vergleich im Vorwort Ihres im Jahre 2011 erschienenen Buches mit Alexander Zeier. Das Thema ‚In-memory Data Management‘ brächte die Welt der Transaktionen (OLTP) und der Datenanalyse (OLAP), manchmal auch ‚Big Data‘ genannt, zusammen - so heißt es dort. Das darauf aufbauende HANA-System scheint sich geradezu zu einem Alleinstellungsmerkmal von SAP entwickelt zu haben. Worauf führen Sie die erstaunliche Resonanz auf Ihr aktuelles technisches Anliegen zurück?

Hasso Plattner (HP): Ich hatte das Glück ein großes Experiment an der Hochschule durchführen zu dürfen. Als wir starteten, war die Idee, alle Daten einer operativen Datenbank im Hauptspeicher zu verwalten, nur für kleinere oder mittlere Anwendungen praktikabel. Aber Dank Google und guter Beziehungen zu den Entwicklern im Hardware Bereich, konnten wir sehen, wohin die Entwicklung gehen würde. Mit acht Cores und 32 Giga Byte Memory haben wir angefangen, heute sind 80 Cores und vier Tera Byte Memory Standard und nächstes Jahr bekommen wir 128 Cores und 12 Tera Byte Memory von mehreren Herstellern geliefert. Alles für einen ‘node’ und davon können wir bis zu 25 zusammenschalten. Alle Forschung hatten wir auf diese Entwicklung ausgerichtet. Vor etwas mehr als drei Jahren konnte ich die SAP überzeugen, ihre drei Datenbankgruppen zusammenzulegen und alle Kräfte auf die Entwicklung einer In-Memory Datenbank zu konzentrieren. Wir hatten Tests mit Echtdaten von großen SAP-Kunden am HPI gemacht und waren sicher, dass eine spaltenorientierte In-Memory Datenbank nicht nur für OLAP sondern auch für OLTP funktionieren würde. Wir haben unsere Forschungsergebnisse fleißig publiziert, aber stießen am Anfang auf die typische Skepsis des Establishments.

Heute ist die SAP kurz davor, alle ihre Anwendungen auf der Datenbank HANA anzubieten. Es ist wie immer im Technologiesektor: das Timing muss stimmen.

BD: Natürlich gibt es auch Kollegen, die in HANA nicht die Lösung aller Informatik-Probleme der Wirtschaft sehen. Sie fragen sich, ob wir einige der Grundkonzepte von Datenbankensystemen wie Atomarität, Konsistenz, Isoliertheit und Dauerhaftigkeit (auch ACID-Konzept genannt) neu durchdenken müssen. Oder sind sie überflüssig geworden? Welche andern Probleme hat die Informatik-Industrie nach Ihrer Meinung zu lösen? Oft wird z. B. der Energiebedarf unserer Geräte als gravierendes Problem angesehen.

HP: Erst einmal, ohne ACID geht bei Geschäftsanwendungen gar nichts. Allerdings sind einige Fragen wie das gleichzeitige Verändern von Personaldaten von der Anwendung zu lösen. Wir glauben, die Datenbank weitgehend sperrfrei zu machen und auch das Betreiben von Replikaten auf der gleichen Persistenzbasis (SSD oder Disk) mit Millisekunden Verzögerung stellt kein wirkliches Problem dar. Jede Transaktion sieht die Daten, die zu seiner Startzeit aktuell waren. Die scharfe Definition von OLTP ist das Problem. Die betriebswirtschaftliche Nutzung braucht heute eine Datenanalyse in Echtzeit (online shopping, trading, optimization by iteration, etc). Neben dem großen Geschwindigkeitsgewinn ist die Verringerung des Daten-‘footprint’ zu beachten.

Brauchen wir nur noch 10-20% an Speicherplatz, gehen die Kosten für die Haltung der Daten im Speicher gewaltig zurück. Denken Sie einmal an die Kosten der Entwicklungs-, Test-, und Archivierungssysteme und ihre laufenden Kosten. Die Hardwarehersteller tun ihr übriges, den Energiebedarf zu senken.

Kann eine Datenbank alles lösen? Erst einmal ist HANA eine Plattform für Anwendungen, also mehr als eine reine Datenbank. Für viele Anwendungsbereiche gibt es vorgefertigte Bibliotheken (Geschäftsfunktionen, Planung, Vorhersagemodelle, Genom basierte Operationen, und vieles andere). Aber damit ist bei weitem nicht alles gelöst. Aber die Tatsache, dass über 600 Start-up-Firmen mit der HANA-Plattform experimentieren und nahezu 50 schon ihre Produkte auf der Basis von HANA anbieten, gibt Zeugnis von dem Potenzial zu Problemlösungen beizutragen.

BD: Ein ganz starker Trend ist sicherlich die Zunahme mobiler Geräte. Einerseits bilden Smartphones (oder portable Apparate aller Art) immer mehr die Schnittstelle zum Menschen, andererseits erlauben Sensoren (und Aktoren) immer mehr die Steuerung technischer Prozesse in allen Branchen. Wo liegen hier die größten Herausforderungen? Stellt nicht der Wunsch, auch im Beruf dieselben Geräte zu verwenden, die man privat benutzt, die Unternehmen vor große neue Aufgaben?

HP: Die weltweite Einführung der Smartphones bedeutet eine ähnliche Revolution wie die Erfindung des PCs. Wenn man das Smartphone benutzt, erwartet man die Antwort in weniger als drei Sekunden. Dialoge müssen, wie auf dem PC, in weniger als einer Sekunde erfolgen. Diese Tatsache hat entscheidenden Einfluss auf die zukünftigen Anwendungen. Die SAP hat mit den HANA basierten Anwendungen den richtigen Weg eingeschlagen und die Antwortzeiten, auch für kompliziertere Programme, dramatisch verkürzt. Praktisch ist der Begriff ‘batch program’ nicht mehr aktuell.

Apple hat gezeigt, dass eine ähnliche Oberfläche für das iPhone und das iPad beim Benutzer sehr willkommen ist. Die Anwendungen müssen auf diese Geräte angepasst werden. Mit dem Internet erreichen wir heute nahezu alle Geräte (Kameras, Haustechnik, Autos, Maschinenbedienung, etc.) der digitalen Welt und können sie einbeziehen in unsere Anwendungen, egal ob ‘home’ oder ‘business’.

BD: Viele Kollegen sehen im Cloud Computing den Alles bestimmenden Trend. Es löst nicht nur die Probleme beschränkter Kapazität und fixer Kosten bei schwankendem Bedarf. Es verspricht vor allem eine Befreiung von jeder Form der Technologie-Abhängigkeit. Wird der Kunde nur noch Dienste in Anspruch nehmen und keine Informatik-Produkte (außer den erwähnten mobilen Endgeräten) mehr kaufen müssen? Werden die damit zusammenhängenden Probleme nicht oft heruntergespielt? Bringt das gerade ins Bewusstsein gerückte Problem der Ausspähung aller im Internet verfügbarer Daten dieses Geschäftsmodell für viele Anwender zu einem jähen Ende?

HP: Jawohl, Anwendungen in der Cloud bieten einen höheren Grad an Flexibilität und können auch im Schnitt zu einem billigeren Angebot führen. Ob der Kunde mietet oder kauft, ist nicht der wirkliche Unterschied. Der große Unterschied in der Cloud liegt in der Standardisierung der Softwareschichten: Betriebssystem, Datenbanksystem, Rechenzentrumsdienste usw. Für kleinere Anwendungssysteme können mehrere Kunden sogar die gleichen Anwendungsprogramme nutzen (Multi-Tenancy oder Mandanten System). Die Sicherheitssysteme sind die gleichen wie im “on premise“-Fall. Der Cloud-Dienstleister hat alle Motivation, einen kostenoptimalen Betrieb zu ermöglichen und kann permanent Vergleiche zwischen verschiedenen Kunden ziehen. Dies führt in aller Regel zu einer besser optimierten Gesamtlösung.

Das Problem der Ausspähung muss getrennt betrachtet werden.

BD: Nach Meinung vieler Kollegen besitzt die Firma SAP eine besondere Stärke darin, dass sie nicht nur das operative Geschäft (das so genannte Backend) automatisiert, sondern seine Kunden dabei unterstützt, alle Aspekte eines flexiblen Geschäftsprozesses für die Automatisierung in Betracht zu ziehen. Stichwort Prozess-Modellierung. Die aktuelle Betonung von OLTP und OLAP deutet daraufhin, dass das Backend eine bevorzugte Beachtung erfährt. Sehe ich das falsch? Muss ein Anbieter, der dauerhaften Erfolg haben will, nicht auch laufend neue Anwendungen erschließen?

HP: Die Wiedervereinigung von OLTP und OLAP ist ein riesiger Schritt, der neue Möglichkeiten in den Geschäftsprozessen ermöglicht. Neue Anwendungen sind nun möglich und werden mit Hochdruck erarbeitet. Der Wegfall der klassischen ‛batch'-Programme ist nur ein Beispiel. Entschieden werden aber auch die kaufmännischen Anwendungen am ‘front end’. Die Benutzer wollen den gleichen Komfort wie in den besten Konsumeranwendungen auch bei ihrer Arbeit. SAP entwickelt deshalb ein komplett neues ‚user interface‘. Es wird Schritt für Schritt in kompatibler Weise zur Verfügung gestellt und wird das alte in Zukunft ersetzen.

BD: SAP hat sehr früh den Schritt zur Internationalisierung des Geschäfts unternommen. Das bezieht sich vor allem auf die Kunden. Der phänomenale Erfolg ist nur so zu erklären. Wie ich in meiner Beschreibung der Firma in diesem Blog hervorgehoben habe, hat SAP auch seine Entwicklung stärker dezentralisiert als andere vergleichbare Firmen. Das hat doch neben Vorteilen sicher auch Nachteile?

HP: Heute bin ich der Überzeugung, dass eine Dezentralisierung technisch viel leichter möglich ist. HANA wurde in über zehn Lokationen rund um den Globus entwickelt. Ich glaube, dass die verteilte Entwicklung ein höheres Potenzial hat und sehe die Bestätigung vor allem in hoch kreativen Unternehmen.

BD: Sie selbst verbringen zwar einige Monate pro Jahr in Kalifornien, haben aber starke Beziehungen zum deutschen Standort. Ich denke zum Beispiel an Ihr Engagement in Potsdam. Worin sehen Sie die Besonderheiten des Standorts Deutschland? Was raten Sie den Kollegen, einmal denen an den Hochschulen, zum andern den deutschen Unternehmen unserer Branche? Haben Sie Wünsche an die deutsche Politik, was deren Industriepolitik in den nächsten Jahren betrifft?

HP: Viele Dinge sind sehr gut in Deutschland, wie unsere Gründlichkeit, die Begabung mechanische und mathematische Aufgaben zu lösen, die Treue zu einer Firma usw. Wir müssen aber mehr auf die Menschen eingehen. Ihnen wollen wir doch die Arbeit oder die Freizeit besser gestalten, also müssen wir sie richtig einbinden in den Entwicklungsprozess. Andere sind hier pragmatischer oder haben einfach mehr Gefühl für die Anwender.

BD: Am Schluss meines erwähnten Blog-Beitrags brachte ich eine persönliche Beobachtung zum Ausdruck. Ich schrieb: 


Obwohl SAP eindeutig das global am besten aufgestellte deutsche Informatikunternehmen ist, könnte der Ruf unter Informatik-Absolventen noch besser sein. Die Firma müsste eigentlich auch für Kerninformatiker sehr interessant sein, und nicht nur für Wirtschaftsinformatiker. 
 
Sehen Sie das auch so? Wenn ja, müsste und könnte man da etwas tun? Vielleicht bietet Ihnen dieses Interview in dieser Sache einen Kommunikationskanal.

HP: Also, SAP ist höchst interessant für Kerninformatiker. Ein Großteil des Umsatzes kommt heute schon von Technologiesystemen wie HANA, Business Objects, mobile Kommunikation, Entwicklungsplattform usw. Wenn wir hier ein falsches Image haben, wird es höchste Zeit, das zu ändern.

BD: Ich danke Ihnen sehr für dieses Interview. Vielleicht kann es dazu beitragen, Ihren so eloquent vorgetragenen Anliegen unter meinen Lesern den Weg zu ebnen.


Nachtrag im Januar 2014

Ein späterer Blog-Eintrag enthält eine Rezension von Hartmut Wedekind von Hasso Plattners Buch über In-Memory Data Management.

Kommentare:

  1. Aus den USA kommend habe ich oft versucht, mit SAP gemeinsame F&E-Projekte durchzuführen, wie das in USA üblich ist. Es ist mir nie geglückt. Ich habe zum Beispiel zu Microsoft unvergleichlich bessere Kontakte, obwohl SAP vor der Haustür liegt. Es hat nicht mal was geholfen, dass mehrere meiner ehemaligen Doktoranden bei SAP arbeiten.

    Woran liegt's? Ich empfand die Leute in Walldorf an Forschung desinteressiert. Ich hatte z.B. eine Projektidee für die Parallelisierung von Big Data Analytics, natürlich auf Hana. Zunächst war großes Interesse da, aber nach einem Besuch in Walldorf kam kein Piep mehr zurück, nicht mal eine Absage. Die Forschungsabteilung in Karlsruhe, die 800m von mir entfernt war, hatte überhaupt keine Biss. Ich diskutierte dort vor einiger Zeit einen Forschungsvorschlag zu Multicore. Die Antwort die ich bekam war, dass das Thema zwar unglaublich wichtig sei, aber dass das Budget schon ausgegeben sei. Ende der Durchsage. Konsequenterweise hat Plattner die Forschungsabteilung geschlossen.

    Ich finde SAP als ein extrem wichtiges Unternehmen und würde gerne in F&E Entwicklung zusammenarbeiten. Aber es gelingt mir einfach nicht. Ich denke, das liegt nicht an mir, denn ich habe auch mit anderen Firmen Kooperationen. Den mangelnden Kontakt zu SAP empfinde ich als extrem nachteilig für beide Seiten, denn damit ist es auch schwierig, Studenten für SAP zu begeistern und mit Bachelor- und Diplomarbeiten zu versorgen, die von gemeinsamen Interesse sind.

    Walter Tichy

    AntwortenLöschen
  2. Am 15.9.2013 schrieb Hartmut Wedekind aus Darmstadt:

    SAP und die Informatik stehen zweifelsohne in einem ironischen Verhältnis zueinander, was zu begründen ist.

    Die Anwendungssysteme der SAP im Bereich Enterprise Resource Planning (ERP) sind von einer spezifischen Komplexität, wie sie der Universitäts-Informatiker in der Regel nicht kennt. Es ist eine ungeheure Fülle von Begriffen (Umfang) und nicht eine Begriffstiefe (Inhalt), die die Systemkomplexität ausmachen. Begriffstiefe mit viel Abstraktionsaufwand kennt der Informatiker; riesige Mengen von Begriffen kennt er nicht. Man schaue mal auf das Firmenwörterbuch (Glossar) von SAP

    [http://help.sap.com/saphelp_46c/helpdata/de/35/2cd77bd7705394e10000009b387c12/frameset.htm]

    und ist schon beim Durchblättern tief beindruckt von dem Umfang dieses Kompendiums. Wem das nicht genügt, der schaue mal auf einen SAP-Kontenrahmen. Man ersäuft schlicht in Begriffen. Für Informatiker ist das abschreckend. Man liebt wenige Begriffe, die man dann wirkungsvoll und elegant zusammensetzen kann. In der kommerziellen Praxis gibt es diese Art von Eleganz leider nicht. Man kann dann aber wie David Hilbert sagen „Eleganz ist für die Schneider, die verstehen mehr davon“.

    Ich habe während meiner Lehrtätigkeit nie über SAP-Systeme publiziert; aber in Datenbankvorlesungen habe ich in Top-down-Manier gezeigt, wie man DB-Schemaentwicklung betreiben kann. Für welche DB? Tja, da SAP keine DB hatte, musste man sich eine von Oracle oder IBM denken. Schemaentwicklung für das ERP-System von Oracle war in Bottom-up-Manier viel leichter, denn in den Flexfeldern der Anwendungsrelationen war die unterliegende Relationale Datenbank von Oracle schon sichtbar. Das Methodisch „Top-down (SAP)“ versus „Bottom–up (Oracle)“ war für die Studenten interessant und hoffentlich reizvoll. Die Begriffsfülle konnte man in der Vorlesung aber verständlicherweise nur im groben Überblick behandeln und musste sie dem Selbststudium überlassen.

    Aus der so genannten Kerninformatik gab es für mein Lehr-Geschäft eigentlich nur wenig Unterstützung. Zu erwähnen ist aber der Kollege Alfons Kemper (Informatik, TU München).

    [Alfons Kemper, Donald Kossmann, and Florian Matthes: Tutorial: SAP R/3 - A Database Application System. Proceedings ACM SIGMOD Conference on Management of Data (page 499), Seattle, USA, June 1998]

    Ich erinnere mich, dass Kemper bei einer ziemlich umfänglichen Schemaentwicklung auf leicht und locker, sagen wir 5000 Relationen kam. Das ist für Informatiker eindrucksvoll, weil sie hier mit einer Begriffsfülle konfrontiert werden, die sie sonst nicht serviert bekommen.

    Ein zweite Ursache für eine Ironie zwischen SAP und Informatik ist natürlich die firmeneigene Programmiersprache ABAB. ABAB ist nur noch historisch zu verstehen. Ich weiß nicht, ob junge Novizen bei SAP noch immer zuerst ABAB lernen müssen, nach dem Motto frei nach Heinz Erhardt „Noch'n Gedicht“. Man ist doch im wesentlichen auch bei SAP heute auf Java abgefahren. ABAB gehört in die Klamottenkiste, wenn nicht da die Programmwartung wäre. Aber dafür stelle ich keine jungen Leute ein. Das ist etwas für Grauhaarige.

    NB (Bertal Dresen): Nur sterben die heute Grauhaarigen bevor SAP das Zeitliche segnet.

    AntwortenLöschen
  3. Am 18.9.2013 schrieb Christoph Meinel, zurzeit in Nanking:

    ...ein kleiner Zwischenruf aus weiter Ferne, ich bin gerade bei unserer HPI Research School in Nanjing zu Besuch ...

    Als Leiter des HPI bekomme ich aus nächster Nähe das segensreiche Wirken von Herrn Plattner im Bereich der Informatik-Forschung und Lehre mit. Schon die Gründung des HPI mit seiner Ausrichtung auf das IT-Systems Engineering war ein wichtiger Beitrag zur Bereicherung der universitären Informatiklandschaft in D und ein wie sich gezeigt hat erfolgreicher Versuch, Universität und Industrie in der Informatik näher zusammenzubringen ...

    Natürlich braucht es Zeit, ein solches Institut in der Wissenschaft zu etablieren. Auch dabei hat sich das Engagement von Herrn Plattner nie auf die Bereitstellung der finanziellen Mittel beschränkt. Wir konnten am HPI neue, die wissenschaftliche Arbeit befördernde Strukturen ausprobieren und etablieren, wie z.B. die HPI Research School (www.hpi.uni-potsdam.de/research_school), das HPI Future SOC Lab (http://www.hpi.uni-potsdam.de/forschung/future_soc_lab.html)oder das HPI-Stanford Design Thinking Program (http://www.hpi.uni-potsdam.de/forschung/design_thinking_research_program/programm.html ). Alles zusammen hat beigetragen, am HPI einen sehr fruchtbaren Nährboden für neue Informatik-Erkenntnis und Lösungen zu schaffen.

    Auch die In-Memory Innovation haben wir seinem ausgeprägten Gefühl, was sich Hardware/Software-seitig wann machen lassen könnte, und seiner Beharrlichkeit, dem dann trotz Ablehnung in der wiss. Community auch auf den Grund zu gehen, zu verdanken. Seine fachlichen Anstöße und wiss. Ideen haben die von ihm betreuten Studenten und Doktoranden motiviert, das In-Memory-Thema zu durchdenken, zu erforschen und dann im Pilot die Machbarkeit einer In-Memory-DB zu zeigen. Natürlich muss zu einem solchen Erfolg auch die Zeit reif, d.h. hier insbesondere die Verfügbarkeit der benötige Hardware absehbar sein. Aber eine Spürnase dafür zu besitzen, das hat Herr Plattner ja schon mehrfach in seinem Berufsleben bewiesen...

    Ich persönlich freue mich übrigens auch immer über aufrüttelnde Worte von ihm, weil das Erleben, was hier in China losläuft und wie Silicon Valley tickt, einen schon etwas unruhig in unsere Zukunft blicken lässt.

    AntwortenLöschen
    Antworten
    1. Herr Meinel, eine winzige Antwort wäre nett und sei es, ein NEIN! Wen soll ich denn um Kontakt zu Hasso Plattner bitten, wenn nicht Sie? Sind Sie nicht sein Vertreter in Potsdam? Informatik ganz gut und schön aber es gibt noch, was anderes. Entspannung in der Freizeit zum Beispiel, wie Hasso Plattner sie ja auch fordert. Hier ein Entspannungsangebot. Eine Spende des Herrn Hasso Plattner für die Gagen der Künstler dieser Show, die garantiert entspannend ist. In der letzten Show wirkten 35 mit aber dieses Mal sind es über 40. Alle müssen leben und wollen arbeiten. Also bitte ich in den Namen von guten Künstlern und Models und auch in meinem Namen, als Designerin der Show, um eine Spende. Herr Meinel, da Sie nicht antworten, mache ich dass eben so über das Internet. In der Hoffnung, dass Herr Hasso Plattner, dass dann selber lesen kann. bplattner@gmail.com. Event, von dem übrigens nach 1 Woche keine Plätze mehr frei waren, ist dieses: https://www.facebook.com/events/243564635811605/ Ich danke für die Weiterleitung, der an Sie gesandten Spendenbitte an Herrn Hasso Plattner. Dankeschön. Sie sind herzlich zur Show eingeladen und Herr Hasso Plattner sowieso.

      Löschen
  4. Am 19.9.2013 schrieb Hartmut Wedekind aus Darmstadt:

    Keine Frage: Hasso Plattner ist ein bedeutender Mann, der viele überragt. Ich würde ihn spontan für die Konrad-Zuse-Medaille als bedeutendste Auszeichnung für Informatik in Deutschland vorschlagen, wenn ich dazu befugt wäre. Die Preisträger sind Persönlichkeiten, deren herausragende Leistungen in Technik und Wissenschaft die Informatik vorangebracht haben. Das ist bei Hasso Plattner sicherlich der Fall.

    Was mich vom ihm in meiner jetzigen Lebensphase als „ausgedienter Datenbänkler“ unterscheidet, ist ein Relevanz-Problem, besser, eine Phase in einem Relevanz-Ablauf.

    Zur Erklärung greife ich zurück auf ein Büchlein des Philosophen Alfred Schütz (1899-1959) mit dem Titel „Das Problem der Relevanz“ (Suhrkamp, posthum 1982). Schütz erklärt uns, wie wir in diversen Phasen das Relevanz- oder Erheblichkeitsproblem unseres Lebens zu meistern versuchen. Was erheblich oder relevant ist, das wird in unserer Lebenswelt heraus profiliert. Relevantes ist unmittelbar adressierbar.

    Man kann nach Schütz z.B. mit einer Phase der Motivations-Relevanz beginnen. Mit „Motivation“ als Antriebskraft für unser Handeln erkennen wir in dieser Phase etwas Herausgehobenes und Bedeutsames für uns. Motivierend ist z.B. für Daten-Informatiker, dass es furchtbar viele Daten gibt, die wert sein könnten, digital verarbeitet zu werden.

    Die zweite Phase, die Schütz beschreibt, ist die Phase der thematischen Relevanz. Wir finden eine Thema oder ein Problem, das wir benennen können. „Big Data“ ist ein solches Problem oder Thema in unserem Relevanz-Ablauf. Das Thema wird von Hasso Plattner mit Bezug auf HANA wunderschön beschrieben. Kein Zweifel kann an der Bedeutsamkeit (Relevanz) dieses Themas bestehen, am wenigsten für einen alten Datenbänkler.

    Die dritte und im Allgemeinen schwierigste Phase nennt Schütz die Auslegungs-Phase. Jetzt muss gedeutet oder ausgelegt werden, was wir da thematisch treiben. Es gibt in der Regel viele Richtungen, aus der das Thema, das Problem und seine Lösung betrachtet werden können. Eine Sicht auf das „Big Data“ Problem ist die Sicht der Prozesse, die dann hochkommt, wenn wir nicht mehr daten-getrieben, sondern prozess-getrieben denken.

    Auf einmal erscheint das „Big Data“-Problem klein und scheint eigentlich nur noch eine Angelegenheit für den Keller (Backend) zu sein. „Plumbers“ (Klempner) im Keller, die Service zu leisten haben, hat uns Datenbänkler Andreas Reuter mal 2005 auf Schloss Dagstuhl genannt. Die meist sperrigen Prozesse finden aber oben auf der „Bel Etage“ statt und benötigen dann und wann auch mal das Big Data-Management eines HANA im Keller. Auf der Bel Etage spielt aber die Musik. Das ist der Punkt, den ich machen möchte.

    Die Relevanz-Phasen eines Alfred Schütz sind kreisrund angeordnet. Nach Abschluss einer Auslegungs-Phase beginnen wir jetzt wieder im Anblick der Sperrigkeit der Prozesse mit einer neuen Motivations-Phase. Jetzt sind wir prozess-getrieben und ein neuer Zyklus mit Motivation, Thema und Auslegung beginnt.

    AntwortenLöschen
  5. Noch am 19.9.2013 antwortete ich:

    Ich habe in den letzten zwei Tagen das Buch von Plattner/Zeier ganz zu Ende gelesen. Ich kann nicht verstehen, wie das, was die beiden sagen, irgendeinen Informatiker kalt lässt. Sie reden nur über Datenbanken und Programmentwicklung. Bei iBook kostet das Buch 35,99 Euro. Soviel ist das auch für einen Rentner nicht.

    Begriffe wie 'hier spielt die Musik' sagen mir absolut nichts. Meinen Sie, dass man dort Geld verdienen oder akademische Lorbeeren erringen kann?

    Ihre Fixierung auf 'Prozesse' ist geradezu grotesk. Es gibt keine sinnvollen Prozesse ohne Daten. Es sind die Daten, die sich laufend millionenfach vervielfältigen. Zuviele verschiedene Prozesse führt nur zu Anarchie und Chaos. Deshalb standardisierte SAP die Prozesse.

    Kommen Sie doch bitte auf die Erde zurück!!

    AntwortenLöschen
  6. Am 20.9.2013 schrieb Peter Mertens aus Nürnberg:

    Die Verbindungen zwischen SAP und der akademischen Wirtschaftsinformatik des deutschsprachigen Raumes sind in vieler Hinsicht gut. WI-Forschung hatte vor allem in den ersten Jahren nach der Gründung SAP befruchtet. Mehrere Vorstandsmitglieder haben mir das bestätigt. Beispiele sind:

    (1) Auf Einzelkostenkalkulationen basierende Stufendeckungsbeitragsrechnungen sind ohne IT undenkbar. Ausgehend vom Rechnungswesen-Pionier Paul Riebel über dessen Schüler Werner Sinzig und gefördert vom späteren Vorstandssprecher Henning Kagermann hat diese Methodik den Weg nach Walldorf gefunden und wurde ein wichtiger Eckpfeiler des SAP-Systems.

    (2) Aus dem Dreieck WI – BWL – OR kamen über die späteren Vorstandsmitglieder Claus Heinrich und Peter Zencke wichtige Heuristiken und exakte Optimierungsalgorithmen in die Systeme der Materialwirtschaft und der Produktionsplanung/Produktionssteuerung/Supply Chain Management.

    (3) Kollege August-Wilhelm Scheer hat sich Verdienste um die Modellierung der SAP-Systeme erworben.

    (4) Rainer Thome, Andreas Hufgard und andere Mitarbeiter des Würzburger WI-Lehrstuhls und auch meines eigenen haben viel zur Konfiguration der Dispositionsparameter der Produktionsplanung mit SAP beigetragen und die konzeptionelle Struktur für das sog. Scoping von Business by Design entwickelt.

    Viele andere Persönlichkeiten aus der SAP AG ebenso wie aus den Wirtschaftsinformatik-Instituten Hochschulen wären zu nennen, vor allem wenn man den für einen Wirtschaftsstandort wie Deutschland so wichtigen „Wissenstransfer über die Köpfe“ ins Auge fasst.

    In der akademischen Lehre spielen die SAP-Kurse eine wichtige Rolle, auch wenn es Skeptiker gibt, die nicht ganz unberechtigt die Frage stellen, ob in einer Hochschule vorwiegend die Systeme des Marktführers als Exempel dienen dürfen. Die Unterstützung durch die SAP-Hochschulkompetenzzentren in Magdeburg und München, die z. B. allgemein verwendbare Lehrmaterialien herstellen, ist wichtig, denn nur unter Nutzung von Skaleneffekten sind die Investitionen in Neuentwicklungen und die Kosten zur fortlaufenden Aktualisierung für die akademischen Einrichtungen verkraftbar.

    Auch zahlreiche Lehraufträge, die Mitarbeiter der SAP wahrnehmen, und eine ganze Reihe von in deutschen und internationalen Verlagen erschienenen Fachbüchern und –aufsätzen, die Mitarbeiter des Softwareherstellers allein oder zusammen mit Hochschullehrern verfasst haben, stehen für die nützliche Zusammenarbeit zwischen Praxis und Wissenschaft.

    NB (Bertal Dresen): Der Unterschied zwischen diesem Kommentar und denen der Kollegen Tichy und Wedekind scheint meine Bedenken in Bezug auf die Kerninformatik zu bestätigen.

    AntwortenLöschen
  7. Am 20.9.2013 schrieb Hartmut Wedekind aus Darmstadt:

    Ich las wieder einmal das lesenswerte Büchlein des bekannte Biographe Rüdiger Safranski „Wie viel Globalisierung verträgt der Mensch“ (2010, 2.Aufl. € 7.95). Safranski unterscheidet die faktische Globalisierung vom Globalismus als Idee oder Ideologie. Globalismus ist für Safranski eine Form der Überforderung. „Die Globalisierung hält offenbar kein Mensch aus, deshalb die Einmauerrung in Ideologien (Neoliberalismus, Multikulturalismus, etc. ..)“ (S.72).

    Wir lernen von Safranski in seinem Essay: Aus Globalsierung wird durch Einmauerung ein Globalismus. Die Einmauerung ist nun als ein genereller Operator aufzufassen. Man darf z.B. dann auch sagen: „Aus Big Data wird durch Einmauerung ein BigDataismus“. Genauso könnte man natürlich auch sagen: „Aus Prozessen wird durch Einmauerung ein Prozessismus“. In der globalisierten Welt wird Englisch gesprochen, manchmal könnte man sagen „leider“. Z.B. ist der deutsche Ausdruck „Ablauf“ englisch nur mit „process“ wiederzugeben. Ähnliches gilt für „Vorgang“ als Teil einen Ablaufs. Manchmal findet man die deutschen Worte „Ablauf“ und „Vorgang“ auch im englischen Schrifttum, was bei dem Sprachengpass nicht verwunderlich ist. In umgekehrter Richtung haben wir viel mehr solche Übernahmen.

    Von der Anklage des Prozessismus spreche ich mich frei. Begründung: Es geht ja gar nicht um Prozesse, das Wort ist entbehrlich. Es geht , breiter gesehen, um rechnergestützte Ablauforganisationen, und die holt jeden ein , auch diejenigen, die dem BigDataismus verfallen sind. Big Data werden aber ablauforganisatorisch faktisch gebraucht, als Phänomen, nicht als Ideologie. Big Data ragt in die Ablauforganisation hinein, ersetzt sie aber nicht. Big Data ist kein organisatorisches Fach. Eine Ablauforganisation ist unersetzbar; philosophisch sagt man auch „unhintergehbar“, und das nicht in dogmatischer Absicht.

    Über der Ablauforganisation gibt es, methodisch betrachtet, nur noch die Aufbauorganisation, ein Wort, das auch nur schwer ins Englische zu übertragen ist. Ohne Aufbauorganisation keine Ablauforganisation. Das berühmte Buch von Rudolf Carnap „Der logische Aufbau der Welt“ (1928) wird im Englischen durchweg abkürzend mit „the aufbau“ zitiert. Man weiß um die Sprach-Malaise. Sollen wir auch das Wort „the ablauf“ einführen?

    AntwortenLöschen
  8. Am 24.9.2013 fügte er hinzu:

    HANA: Eine Revolution mit Ansage. Ich habe jetzt auch das Buch von Plattner/Zeier bis zu Ende gelesen und bin tief beeindruckt von der technischen Kompetenz der Autoren. Wenn dann auch noch einer der beiden Autoren im Top-Management sitzt, dann ist das Buch eine ganz außerordentliche Leistung, die anderen Top-Managern als Vorbild dienen sollte.

    Ich nenne diesen Beitrag „HANA: Eine Revolution mit Ansage“ , weil HANA 2012 ziemlich genau zwölf Jahre zuvor, vom Turing Award Winner Jim Gray in seinem Aufsatz „The Next Database Revolution“ beschrieben wurde (http://www.cs.ucsb.edu/~xyan/classes/CS273-2011fall/sigmod2004-gray.pdf). Im HANA-Buch wird diese wichtige Arbeit nicht zitiert. Das ist dann die Angelegenheit einer Neuauflage, das nachzuholen. In einem Interview mit dem leider auch zu früh verstorbenen Klaus Dittrich (Zürich) im Datenbank Spektrum (7. Jahrg. Heft 20, Feb. 2007) habe ich mich mit dem Revolutions-Aufsatz von Gray kritisch auseinandergesetzt. In dem Interview überschrieben mit „Von Datenbanken und anderen Päpsten“ schütte ich Wasser in den wunderschönen Revolutionswein eines Datenbank-Papstes. Jim Gray war wegen seiner überragenden Leistungen ein Datenbankpapst. Ich gehe hier nur auf das Wichtigste, d.h. das Architekturelle ein.

    Jim geht auf die objekt-orientierten Sprachen à la Java ein, dann schreibt er: “The big news now is the marriage of databases and these languages. The runtimes are being added to the database engine so that now one can write database stored procedure (modules) in these languages and can define databases objects as classes in these languages. Database data can be encapsulated in classes and the language development environment allows you to program and debug SQL and the language seamless mixing Java or C++ with SQL, doing version control on the programs, and generally providing a very productive programming environment. SQLJ is a very nice integration of SQL and Java, but there are even better ideas in the pipeline. The integration of languages with databases eliminates the inside-the-database / outside-the-data base dichotomy that we have lived with for the last 40 years.”

    Schon ein flüchtiger Blick auf die umfangreiche Literatur zum Thema Enterprise Java Beans zeigt, dass die Dichotomie noch längst nicht vorbei ist. Aus systematischen Gründen ist diese „inside/outside“-Dichotomie auch gar nicht zu überwinden. Wohlgemerkt: „Inside-the-database“, das ist HANA. Und was ist „outside-the-database“? Outside-the-database, das sind Java Enterprise Edition Application Server (Typ J2EE), die mit einer relationalen Datenbank über ein Objekt/Relational Mapping (z.B. Hibernate) verkehren. Java-Programm-Objekte werden in Relationen umgesetzt, was nicht so ganz einfach ist, weil Programmiersprachen bedauerlicherweise keinen Primärschlüssel kennen. Die Dichotomie des Jim Gray ist nicht verschwunden, sondern ist eine Architekturentscheidung von beachtlicher Bedeutung, was man sich klar machen muss.

    Wie sieht die Welt heute aus? Auf der einen Seite HANA mit einer Datenbankprogrammierung in einem abgeschlossenen System. Es gibt Standardprozesse aus dem ERP-Bereich mit klassisch betriebswirtschaftlichen Vorgängen. Dafür ist HANA goldrichtig. Auf der anderen Seite Prozess- oder Ablaufmodellierung über Systemgrenzen hinweg. Prozessgesteuerte Anwendungen für Ende-zu-Ende-Individualprozesse nennt man das.

    Wir brauchen eine friedliche Koexistenz beider Ansätze und keine Einmauerung mit einer unüberbrückbaren Dichotomie. Datenbankpäpste können auch irren. Für die Ausführung der Einzelschritte im Sinne einer BPMN-Aktivität darf man gerne hochoptimierte, performante DB-Stored-Procedures verwenden, doch für die Steuerung komplexer Zusammenhänge unter Berücksichtigung von Ereignissen und umfangreichen Regelwerken braucht’s die Prozessmodellierung, meinetwegen in der Sprache BPMN. Daran ist schlichtweg nichts zu ändern. Da beißt die Maus keinen Faden ab. Und genauso gehört es auch an den Hochschulen vermittelt. Einmauern ist auch hier verboten.

    AntwortenLöschen