Fast droht ein Jubiläum in Vergessenheit zu geraten. Es ist
die Ankündigung des IBM System/360 im April 1964. Die Böblinger
Hardware-Entwickler der IBM erinnern gerade daran mit einem deutschen Pressebeitrag.
IBM habe die IT-Branche revolutioniert, heißt es in dem Beitrag. Das Wort
Revolution wird bei Computern und in der Informatik manchmal etwas leichtfertig
benutzt. Manche Entwicklungen geschahen in kleinen Schritten, bei andern war
ein Umdenken unvermeidlich. Manchmal entstand der Eindruck, dass unser
Fachgebiet mal wieder neu definiert wurde. Bei politischen Revolutionen wird
meist das Establishment auf brutale Weise liquidiert. Bei wissenschaftlichen und technischen
Revolutionen werden nur Lehrbücher verbrannt oder Gerätschaften entsorgt. Neue und
jüngere Fachvertreter schieben sich nach vorne, es sei denn die Alten schaffen
die Wende.
Im Folgenden werde ich nicht nur über die Revolution von
1964 sprechen, sondern auch über einige, die etwas später erfolgten. Dabei
erlaube ich mir, vor allem die Ereignisse und Trends anzusprechen, die ich selbst
erlebt habe. Wie bei Historikern üblich, benenne ich Revolutionen nach einer
Jahreszahl, wohlwissend, dass man oft willkürlich ein Datum festlegen muss.
Jedenfalls stimmt der Zeitraum. Zusätzlich gebe ich in Klammern das Thema, um
das es ging.
Revolution von 1964 (Architektur-Revolution)
Worum es 1964 ging, ist die Erkenntnis, dass man die
Schnittstellen, wie ein Programmierer den Rechner sieht, über möglichst viele
Maschinentypen konstant halten sollte. Irrtümlicherweise wird hier (von uneinsichtigen
Sprachtheoretikern) meist von Abstraktion gesprochen. Es ist die Spezifikation,
also die Festlegung dessen, was invariant bleiben soll. Die Kollegen, die
diese Revolution auslösten, waren Gene Amdahl, Fred Brooks und Jerry Blaauw. Ihre Vision
hat zumindest das Denken einiger Hardware-Kollegen bis heute beeinflusst. Die
Universität Leipzig verweist auf einige der relevanten Veröffentlichungen.
Auch die Rolle von Bob
Evans wird erwähnt. Ohne ein Kraftzentrum wie ihn hätte es kein System/360
gegeben. Bei den technischen Konzepten, die in der Architektur des System/360
stecken, schien mir die Wahl eines Zeichensatzes mit 256 Elementen sehr weittragend
gewesen zu sein. Da sie jedoch die aus der Lochkartenzeit stammende
Interpretation dieses Zeichensatzes (EBCDIC statt ASCII) beibehielt, hat dies IBM
und ihre Kunden später sehr belastet.
Ein Befehlssatz, der sich primär an Byte-Daten orientierte, war für viele der späteren Anwendungen ungeeignet. Bildschirme, die jeden Bildpunkt adressieren konnten, passten nicht in diese Architektur. Das gleiche galt für Sensor-Daten, mit denen Geräte in Echtzeit gesteuert wurden. So erfolgreich die neue Architektur auch war, um das bis dahin bekannte Geschäft auszuweiten, sie wurde für IBM zum Hemmschuh beim Erschließen neuer Anwendungen. Sie führte auch intern zu einer sehr starken Gegenbewegung, die sich in einer Vielzahl neuer Architekturen ausdrückte. Diese setzten die S/360-Produktlinie IBM-intern sehr unter Druck. Es begann mit System/3 und Serie/1 und setzte sich mit der IBM 8100 und der System/38-Famile (der späteren AS/400) fort. Nicht nur die Entwickler benahmen sich wie Konkurrenten, auch der Vertrieb. Vor allem Bob Evans hat diesen Zustand bekämpft, musste sich aber geschlagen geben.
Ein Befehlssatz, der sich primär an Byte-Daten orientierte, war für viele der späteren Anwendungen ungeeignet. Bildschirme, die jeden Bildpunkt adressieren konnten, passten nicht in diese Architektur. Das gleiche galt für Sensor-Daten, mit denen Geräte in Echtzeit gesteuert wurden. So erfolgreich die neue Architektur auch war, um das bis dahin bekannte Geschäft auszuweiten, sie wurde für IBM zum Hemmschuh beim Erschließen neuer Anwendungen. Sie führte auch intern zu einer sehr starken Gegenbewegung, die sich in einer Vielzahl neuer Architekturen ausdrückte. Diese setzten die S/360-Produktlinie IBM-intern sehr unter Druck. Es begann mit System/3 und Serie/1 und setzte sich mit der IBM 8100 und der System/38-Famile (der späteren AS/400) fort. Nicht nur die Entwickler benahmen sich wie Konkurrenten, auch der Vertrieb. Vor allem Bob Evans hat diesen Zustand bekämpft, musste sich aber geschlagen geben.
Fred Brooks hat vermutlich als einziger der drei erwähnten
Autoren die Bedeutung und die Besonderheiten von Software erkannt. Er wechselte
IBM-intern nicht nur in die Software-Entwicklung, er konnte auch seine
Erkenntnisse ausgezeichnet formulieren. Sein Buch über seine Erfahrungen bei
OS/360 wurde zum Bestseller (über 300,000 verkaufte Exemplare). Auch einige seiner
späteren Veröffentlichungen wurden nicht nur stilprägend, sondern legten tiefe
Einsichten offen. Das Problem, das Brooks in seinem erwähnten Buch nicht einmal
streift, ist die Tatsache, dass OS/360 nur einen Teil des Hardware-Marktes des
Systems/360 abdecken konnte.
Damit die Software-Seite nicht ganz ignoriert wird, verweise
ich auf einen im Heft 4/2013 der IEEE-Annalen erschienenen Beitrag über diese Zeit, in dem primär an die
Programmiersprachen Algol und PL/I erinnert wird. Wie in diesem Beitrag
ausgeführt, war die Übertragung der im Hardware-Bereich geborenen Idee einer
einheitlichen Architektur auf die Software ein grandioser Misserfolg. Meine wichtigsten
Erfahrungen aus dieser Zeit habe ich in dem Beitrag wie folgt zusammengefasst:
- Sich um eine einzige,
allumfassende Programmiersprache zu bemühen, ist eine Illusion. ... Es gibt ein
starkes Indiz, dass die verschiedenen Gemeinden [Kaufleute und Techniker] für
sich bleiben wollen. Sie sind in der Tat besser mit verschiedenen Sprachen bedient.
Das Fehlen [einer einheitlichen Sprache] ist eine Belastung nur für Menschen,
die über Grenzen hinweg arbeiten.
- Ernsthafte Benutzer
schätzen ihre Software-Investitionen. Software, die verwendet wird, stellt ein
intellektuelles Vermögen dar und erweitert die Fähigkeiten der Mitarbeiter.
Dies gilt für Anwendungen wie für Entwicklungs-Tools. Jede Migration ist teuer.
- Software-Entwicklung ist
überschaubar, sofern die Ziele verstanden und die zu verwendende Technologie
unter Kontrolle ist. …Neue Technologien erfordern eine Lernkurve. Ein
Top-down-Ansatz für neue Anwendungsbereiche ist in der Regel riskant.
Bottom-up-Ansätze führen leicht zu Überschneidungen und Inkonsistenzen, können
aber mit weniger Problemen gemanagt werden.
- Fortschritte in der
Hardware sind zugleich eine Hilfe und eine Herausforderung für die Software. ..Ich
habe ständig den Fortschritt der Hardware-Technologien unterschätzt, obwohl
ich enge Kontakte zu einigen der treibenden
Einzelpersonen und Gruppen hatte. Ich wollte ihnen einfach nicht glauben.
Revolution von 1969 (Software-Revolution)
Die Schnittstelle, an der sich entscheidet, was als Software
oder als Hardware gilt, ist die vorhin erwähnte Rechner-Architektur. Von der
Sache her ist Mikrocode, der im Hauptspeicher residiert, genau dasselbe, er
gilt jedoch nicht als Software. Zunächst wurde Software als für den Vertrieb
von Rechnern nützliche Zugabe gesehen. Einige Leute, die selbst keine Rechner
bauten, sahen dies anders und überzeugten die amerikanischen Behörden zu
handeln. Es wurde auch als Möglichkeit gesehen, die Vormachtstellung einzelner
Hardware-Hersteller zu brechen. Seit Ende der 1960er Jahre sprach man daher in
Fachkreisen vom ‚Unbundling‘, der Trennung von Hardware und Software. Auch die
bekannte NATO-Tagung 1968 in Garmisch verwandte eine ganze Sitzung auf das
Thema.
Von Watts
Humphrey, der damals im Firmenstab (engl. Corporate Headquarter) tätig war,
wurde das ‚Unbundling‘ vorbereitet und bei IBM eingeführt. Ich selbst
unterbrach ein einziges Mal in meiner Berufskarriere meinen Sommerurlaub, um
das Ergebnis von Humphreys Arbeiten zu erfahren. Das war im August 1969. IBM
trennte sich gezwungenermaßen von einem Geschäftsmodell, von dessen Richtigkeit
viele Kollegen überzeugt waren. Man müsse das Gesamtsystem optimieren. Hardware
ohne Software sei ein Unding. Das Gegenargument lautete – und wem es passte,
betete es nach ̶
nur wenn Wettbewerb für alle Teile eines Produkts bestehe, erhalten
Nutzer das Optimum und der Markt wird expandieren. Geschlossene Systeme kamen in
unserer Branche außer Mode – eine weitere Besonderheit im Vergleich zu andern
Branchen. Selbst die Wissenschaft versuchte Argumente für offene Systeme zu
finden. In einem andern Zusammenhang [1] schrieb ich dazu:
Es waren aus Sicht der IBM
eher defensive Überlegungen, die zu diesem Schritt führten. Man wollte nicht
selbst auf Dauer gerade die für Anwendungsprogramme immer stärker steigenden
Investitionen tragen, sondern auch andere Firmen motivieren, sich hier zu
engagieren. Da mangels entsprechender Standardisierung im Anwendungsmarkt die
Stückzahlen noch sehr gering waren, gab IBM alle Sprachübersetzer dazu. .. Aus
heutiger Sicht bestand eine weitere Einschränkung darin, dass IBM ihre
Software-Produkte damals nicht für Mitbewerber-Maschinen anbot. Hätten z.B. die
Entwickler von OS/2 diese Limitierung nicht gehabt, wäre möglicherweise der
Wettlauf gegen Windows und Microsoft (und damit das Geschehen am Markt für
Betriebssysteme) anders ausgegangen.
Man kann die 1970er Jahre als die Hochblüte der Minirechner
ansehen. Firmen wie Apollo, Data General, DEC, Prime, HP und Honeywell dominierten
den Markt. Manche boten nur ‚nackte‘ Hardware an. Software (vor allem
Betriebssysteme und Compiler) konnte man ja anderswo kaufen oder sich schenken
lassen. Unix und C machten von sich reden. Über Pascal und C++ führte die
Programmiersprachen-Entwicklung schließlich zu Java. Dass durch die Minirechner
die Großrechner der IBM nicht frontal angegriffen wurden, soll folgende Episode
belegen. Sie wurde ebenfalls in [1] berichtet.
Wir wollten auch eine
Marktanalyse machen und erhielten Zugang zu den IBM-Daten über Konkurrenz-Situationen.
In diesem Zusammenhang erinnere ich mich an eine Zahl. Es ging darum, wie
schneidet IBM ab gegen die VAX-Rechner der Firma DEC. Das Ergebnis unserer
Recherche war verblüffend. Es gab in dem betreffenden Jahr weltweit nur 100
Situationen, in denen dieser Rechner gegen einen IBM-Rechner angeboten wurde.
IBM hatte in 90% der Fälle den Auftrag gewonnen. Also kein Grund, besorgt zu
sein. Aus anderer Quelle wusste ich, dass in derselben Zeit, DEC über 1000 VAX-Rechner
verkauft hatte. Die Erklärung, die auch für andere Produktbereiche galt,
lautete: Hier hatte ein Wettbewerber einen ganz neuen Markt geschaffen, der von
IBM nicht wahrgenommen wurde. So wie der Minirechnermarkt an IBM, so ging
später der PC-Markt an DEC vorbei.
Solche Neudefinitionen des Marktes gab es auch später
mehrfach. Sie sind vielleicht das besondere Kennzeichen unserer Branche.
Revolution von 1975 (Daten-Revolution)
Hatten zuerst Programmiersprachen für viele Kollegen ihren
Reiz verloren, folgten bald die Betriebssysteme. Sie waren – zumindest im
kommerziellen Bereich ̶ plötzlich nicht mehr die strategisch
wichtigste Komponente. An ihre Stelle traten die Geschäftsdaten, genauer die Transaktions-
und Datenbanksysteme, die sie verwalteten und verarbeiteten. Anwendungen, von
denen das Geschäft der Kunden abhing (engl. mission critical applications)
verlangten, dass das System nicht nur im Nachhinein die anfallenden Daten
verarbeitete, sondern zeitgleich mit ihrer Entstehung. Die System-Komponenten, die
bei IBM plötzlich im Mittelpunkt standen, hießen CICS und DL/I im Bereich der
mittleren Systeme (DOS/VS und VM) und IMS bei MVS. Andere Firmen hatten
vergleichbare Produkte. Sie leiteten eine Phase der Zentralisierung ein, wobei
kritische Daten möglichst nur einmal erfasst und gespeichert wurden. Sowohl mit
DL/I wie IMS ließen sich so genannte hierarchische Datenbanken sehr effizient
implementieren.
Nach Ted
Codds richtungsweisenden Forschungsergebnissen von 1970 dauerte es bis
1979, ehe mit Oracle das
erste relationale Datenbank-Produkt im Markt erschien. Im Jahre 1981 folgte IBM
mit SQL/DS, das später in DB2 umbenannt und zu einer ganzen Produktfamilie
weiterentwickelt wurde. Bei relationalen Datenbanken ist keine bestimmte
Struktur (Hierarchie oder Netzwerk) vorgegeben. Es dauerte allerdings mehrere
Jahre ehe brauchbare Implementierungen zur Verfügung standen. Brauchbar hieß,
ihre Leistung musste in etwa der Leistung hierarchischer Datenbanksysteme
entsprechen. Der wissenschaftlichen Seite der Informatik gaben diese Probleme
einen unvergleichlichen Auftrieb, insbesondere in Deutschland.
Revolution von 1978 (Computer-Bildschirme)
Magnetplatten, die schon vor 1964 ihren Markteintritt
hatten, sind der Gerätetyp, der lange Zeit die Art und die Struktur von
Anwendungen beeinflusste. Sie haben neben den Halbleitern eine geradezu
revolutionäre Entwicklung genommen. Für den Preis von einigen Megabytes (10 hoch 6 Bytes) von 1964 kann man heute einige Terabytes (10 hoch 12 Bytes)
bekommen, also das Millionenfache. Die Entwicklung fand in vielen kleinen
Schritten statt.
Ähnlich, aber zeitverschoben, lief die Entwicklung bei Bildschirmen (auch Computer-Monitore
genannt). Ein sehr entscheidender Schritt war Ende der 1970er Jahre der
Übergang zu Bildschirmen, bei denen einzelne Bildpunkte (Pixels) angesteuert
werden. Damit eröffneten sich alle Anwendungen, die nicht nur Ziffern und
Buchstaben verarbeiten, sondern Bilder und Grafiken. Das Komplement auf der
Druckerseite sind hochauflösende Laserdrucker.
Revolution von 1981 (PC-Revolution)
Rechner waren Jahrzehnte lang große Kästen, die in speziell
klimatisierten Räumen standen und von Spezialisten benutzt wurden. Wie die
Priester in einem antiken Tempel zwischen Göttern und Menschen vermittelten, so
taten dies die Spezialisten zwischen Technik und Anwendung. Der von der Gruppe um
Bill
Lowe und Don
Estridge in Boca Raton, FL, im August 1981 herausgebrachte IBM/PC veränderte
nicht nur den Markt sondern auch die Branche von Grund auf. Mittlere und
Großsysteme erhielten den Ruf von Dinosauriern, deren Aussterben nur eine Frage
von Jahren sei. IBM hatte eine Hardware-Struktur gewählt, die auch von andern Unternehmen
in kompatibler Form nachgebaut werden konnte. Wie nach den Dinosauriern die Säugetiere die Welt übernahmen,
so bevölkerten fortan Kleinstrechner (Mikroprozessoren) Büros, Fabriken,
Privatwohnungen und Schulen. Statt der Spezialisten wurden Otto
Normalverbraucher und Lieschen Müller zu Maschinenbedienern, manche auch zu
Programmierern. Dass das Programmieren erleichtert werden musste, oder auch
teilweise umdefiniert wurde, versteht sich von selbst. Ein Paradebeispiel heißt
Tabellenkalkulation (engl. spread sheets).
Da IBM das Betriebssystem und andere wichtige
Software-Komponenten der von Bill Gates gegründeten Firma Microsoft übertragen
hatte, entstand auch ein von IBM unabhängiger Software-Markt. Gates hatte
Verträge, die es ihm erlaubten, das was IBM finanziert hatte, auf
Nicht-IBM-Hardware zu vertreiben. Die daraus resultierende Erfolgsgeschichte
hatte nicht ihresgleichen in der Branche.
Revolution von 1990 (Internet-Revolution)
‚Das Netz ist das System‘ mit diesem Slogan warb ein
Hersteller (ich glaube es war DEC), lange bevor es das heute so allgegenwärtige
Internet gab. Isolierte Rechner sind nur ein Bruchteil dessen wert, was Rechner
bedeuten, die miteinander kommunizieren können. Das Kommunizieren ist neben
Speichern und Rechnen die wichtigste Aufgabe, die Rechner erfüllen.
Im Bereich der Datenfernübertragung ging IBM unter der
Leitung von Ed
Sussenguth einen Weg, der zu einem Wettkampf der Architekturen führte. IBM
setzte auf eine verbindungorientierte Architektur (SNA genannt), das
amerikanische Militär und die von ihr finanzierte akademische Forschung
bevorzugten ein verbindungsloses Konzept (TCP/IP). Eine verbindungslose
Kommunikation benutzt das Paketprinzip. Zu seinen Pionieren gehörten Leonard Kleinrock, Vinton Cerf und Tim Berners-Lee.
Mit dem Zwischenschritt Arpanet entstand schließlich das Internet. Dieses
wurde im Jahre 1990 kommerzialisiert. Es wuchs von 1990 bis heute von weniger
als 1% zu fast 97% aller weltweit ausgetauschten Daten. Zurzeit werden gerade
viele bisher noch als einzelne Knoten sichtbare Rechner durch ein
verschwommenes Gebilde ersetzt, das als ‚Cloud‘ bezeichnet wird.
Revolution von 1992 (Anwendungs-Revolution)
Um 1991 baute Hasso Plattners Team bei SAP
das System R/3. Es ebnete den Weg für Systeme, in denen mehrere Anwendungen
über ein einheitliches Informationsmodell gekoppelt waren. Da die Firma SAP die
von IBM entwickelte Architektur für Client/Server-Systeme (SAA genannt) besser implementierte
als IBM, stieg SAP zum Führer im Weltmarkt auf. Außerdem konnte SAP eine enorme
betriebswirtschaftliche Kompetenz zur Anwendung bringen. IBM zog sich alsbald aus
dem Gebiet der Anwendungen völlig zurück. Später wurden auch Datenbank-Systeme
zu einem Thema, das technisch sehr stark an das SAP-Umfeld gebunden ist. Als
Produkte blieben sie jedoch ein weitgehend unabhängiges Geschäft.
Bei vielen Unternehmen ist es heute sinnvoller, betriebliche
Abläufe vorhandenen Software-Lösungen anzupassen, als sich um eigene Software
für vorhandene Abläufe zu bemühen. Der Markt für technische Anwendungen ist
separat zu sehen. Hier stellen graphische Entwurfsysteme vielfach eine verbindende
Basis her.
Revolution von 2007 (Mobilitäts-Revolution)
Als letztes Beispiel sei die von der Firma
Apple und ihrem verstorbenen Inspirator Steve Jobs herbeigeführte Revolution
erwähnt. Heute sind Smartphones und Tablets die einzig interessanten Computer.
Sie sind auch deshalb so erfolgreich, weil sie geschlossene Systeme sind. Sie
lösten nämlich zwei Probleme, gegen die die Branche machtlos zu sein schien,
nämlich das Viren- und das Spam-Problem. Da Apple wegen dieser Strategie (wie
einst IBM) in der Kritik steht, bin ich gespannt, ob und wie die auf dem
Betriebssystem Android basierende Konkurrenz diese Probleme löst.[Siehe Nachtrag vom 7.3.2014]
Portable Geräte ermöglichen auch Privatpersonen eine mehrstufige
Form der Computer-Nutzung. Über meine eigenen Erfahrungen gibt ein Eintrag
vor drei Jahren in diesem Blog Auskunft. Als Ergänzung zu den unzähligen
mobilen Geräten gewinnen ‚Clouds‘ immer mehr an Bedeutung. Es ist nicht mehr
ein ortsgebundener Rechner, der dem mobilen Gerät als Stütze dient, sondern das
Internet mit Funktionalitäten, die ortsunabhängig und standardisiert angeboten
werden. Als Betreiber eines Rechenzentrums in den 1960er Jahren kommen mir
einige der bei ‚Clouds‘ benutzten Argumente bekannt vor.
Nachbemerkung
Bekanntlich kennt Geschichte keine unveränderlichen Wahrheiten.
Sie ist das, was Überlebende und deren Nachfahren für interessant und wichtig
halten. Das ist mit der Informatik-Geschichte nicht anders. Zwei Beispiele
seien erwähnt. F.L.
Bauers Geschichte der Informatik konzentriert sich auf die
Hochschul-Informatik und lässt die Praxis aus. Timo
Leimbach konzentriert sich auf eine Geschichte der deutschen Informatik. In
der allgemeinen Geschichte der Menschheit ist die Geschichte eines Landes nicht
besonders wichtig, etwa die von Luxemburg oder Andorra, oder die eines Berufes, etwa der
Imker oder der Goldschmiede. Man darf sich natürlich mit ihr befassen, kann
sich aber dann des Vorwurfs nicht erwehren, etwas provinziell oder einseitig zu
sein. Eine allgemeine Geschichte der Informatik zu schreiben, ist ein
Unterfangen, das ein Einzelner kaum bewältigen kann – es sei denn er hat viel
Mut beim Weglassen.
Nachtrag vom 7.3.2014:
In einem Bericht der Firma Kapersky Labs wird festgestellt, dass im letzten Jahr weltweit 143.000 neue Smartphone-Schadcodes entdeckt wurden. Fast alle zielen auf Googles Android-Betriebssystem ab. Wörtlich heißt es: "Das geringste Risiko beim App-Download haben Nutzer, die ausschließlich die offiziellen App-Stores nutzen".
Nachtrag vom 7.3.2014:
In einem Bericht der Firma Kapersky Labs wird festgestellt, dass im letzten Jahr weltweit 143.000 neue Smartphone-Schadcodes entdeckt wurden. Fast alle zielen auf Googles Android-Betriebssystem ab. Wörtlich heißt es: "Das geringste Risiko beim App-Download haben Nutzer, die ausschließlich die offiziellen App-Stores nutzen".
Referenz
- Endres, A.: Die IBM Laboratorien Böblingen: System-Software-Entwicklung. Band 2 der Reihe Forschung und Entwicklung in der IBM Deutschland. Eigenverlag: Sindelfingen 2001; 144 Seiten; ISBN 3-920799-22-3
Am 12.2.2014 schrieb Klaus Küspert aus Jena:
AntwortenLöschenMir fallen gleich noch andere ‚Revolutiönchen‘ ein: die E-Commerce-Revolution, die OO-Revolution und dann noch Prozess-/Workflow.
Meine Antwort (BD) lautet: Meine Auswahl wurde von folgenden Gesichtspunkten bestimmt.
(a) Die Zahl der Revolutionen sollte die Größenordnung 10 nicht überschreiten. Wenn man alle Zweige der Informatik berücksichtigt, kommt man leicht in die Gegend von 100 wichtigen technischen und organisatorisch/wirtschaftlichen Durchbrüchen, die sich auswirkten. Was ich davon als wichtig oder interessant ansehe, ist mein subjektives Urteil. Das ist natürlich geprägt von meiner Sozialisierung und Erfahrung.
(b) Einige Dinge hängen miteinander zusammen. So ist es sinnvoll von E-Commerce erst dann zu reden, nachdem das Internet eine gewisse Reife und Verbreitung hatte. Die OO-Revolution hat eine klare Spur in der Programmierung hinterlassen. Ich habe C++ und Java erwähnt. Die Auswirkung auf Datenbanken zu beschreiben, ist etwas komplizierter.
(c) Das Thema Prozesse und Modellierung (auch BPMN) wurde in diesem Blog immer wieder behandelt. Es traten dabei gewisse Diskrepanzen der Auffassungen zu Tage, denen schließlich ein ganzer Blog-Eintrag (am 6.10.2013) gewidmet wurde
Noch am 12.2.2014 schrieb Hartmut Wedekind aus Darmstadt:
AntwortenLöschenOb Revolution oder Revolutiönchen? Am besten schaut man beim Altmeister Thomas Kuhn: „Die Struktur wissenschaftlicher Revolutionen“ nach. Er nennt eine Revolution einen Paradigma-Wechsel. Und in der Tat: Kuhn kennt gewaltige Paradigma-Wechsel, die er z.B. mit den Namen Kopernikus (Heliozentrisches Weltbild), Newton (Gravitationstheorie) und Einstein (Relativitätstheorie) verknüpft. Kleinere Paradigma-Wechsel sind z.B. William Harvey (Blutkreislauf), Lavoisier (Sauerstoff) und Röntgen (Röntgenstrahlen).
Man muss im Nachhinein die Größe des Entwicklungssprungs betrachten. Und über die Größe (Wirkmächtigkeit) lässt sich streiten.
Man kann sicherlich auch in der Informatik in einer Diskussion unter Wohlmeinenden eine Rangfolge der Paradigmata feststellen. Man muss sich aber in die Zeit versetzen, als der Sprung stattfand, und darf nicht aus der heutigen Zeit urteilen. Da sieht dann auf einmal der Kopernikus ganz klein aus.