Dienstag, 31. März 2015

Edwin Vogt über Hard- und Software-Entwicklung bei IBM und andere Aktivitäten

Edwin Vogt (Jahrgang 1932) war von 1961 bis 1996 im Entwicklungsbereich der IBM Deutschland tätig. Nach einem Algol-Projekt 1962-1963 im französischen Labor in La Gaude folgte eine Abordnung in die USA. Von 1967 bis 1984 war er Leiter der Systementwicklung des Böblinger Labors und verantwortete die Entwicklung mehrerer IBM Rechnerfamilien. Zu erwähnen sind das System/360 Modell 125 sowie die Systeme IBM 4331, 4361 und 9377. Über mehrere Jahre hinweg schloss seine Verantwortung auch die maschinen-nahe Software-Entwicklung mit ein, d.h. das Betriebssystem DOS/VSE. Im Jahre 1987 übernahm er die Leitung des Programm-Entwicklungszentrums (PPDC) Sindelfingen. Daraus entstand ein eigenes Anwendungsentwicklungslabor mit weltweiter Produktverantwortung im Datenbank- und Data-Warehouse-Bereich.

Nach seiner Pensionierung im Jahre 1996 wurde Vogt zum Geschäftsführenden Vorstand einer Start­up-Förderinitiative ernannt. Das Softwarezentrum Böblingen/Sindelfingen e.V. ist eine vom Land Baden-Württemberg, der örtlichen Bezirkskammer der IHK und den Städten Böblingen und Sindelfingen Ende 1995 initiierte Organisation. Vogt leitete sie bis August 1999. Danach wurde er Vizepräsident Forschung & Entwicklung für Xybernaut, einer Firma, die Rechner baute, die bei Montage-Arbeiten am Körper des Monteurs getragen werden. Seit April 2011 ist er Leiter der Basketballabteilung der Böblingen Panthers. Vogt ist promovierter Elektrotechniker der Universität Stuttgart. Familie Vogt hat drei erwachsene Söhne, acht Enkel und einen Urenkel.



Bertal Dresen (BD): Wir kennen uns seit unserer gemeinsamen Zeit vor über 50 Jahren im französischen Labor der IBM. Das war bei einem Software-Projekt in La Gaude an der Côte d’Azur unweit von Nizza. Wir lassen diese Wanderjahre einmal außen vor und beginnen mit der Prozessoren-Entwicklung in Böblingen. Damit Sie einen Bezugspunkt haben, stelle ich einen Auszug aus einer Tabelle vorne weg, die sich (ohne die Software-Spalte) in Helmut Painkes Buch [1] (Seite 167) befindet. Sie können dann frei zwischen Produktbezeichnung und internem Projektnamen wechseln. Was war der erste technische Höhepunkt, an den Sie sich erinnern? 


Edwin Vogt (EV): Meine Zeit als Leiter der Prozessoren-Entwicklung, intern meist Systementwicklung genannt, begann 1967 mit der Entwicklung des System/360 Model 20 Submodel 5 (Codename 20-I). Diese war das erste ausgelieferte System, in dem der Kontrollspeicher für die Mikroprogrammierung in den Datenspeicher integriert war. Ein prototypischer Vorläufer (Codename M10) unter meinem Vorgänger Wilhelm Spruth hatte diese Technologie erstmals angewandt. Dies erlaubte auch die Mikroprogrammierung durch Entwicklungsverfahren zu unterstützen, die in der Software Stand der Technik waren.

Wir haben damals einen Interpreter für die kommerzielle Programmiersprache RPG (Report Program Generator) direkt im Mikroprogramm (unter dem Codenamen GOML) implementiert. Die 20-I lief dann als RPG-Maschine fantastisch. Die IBM hat aber die Auslieferung gestoppt, weil die 20-I in diesem Modus schneller war als die größeren Modelle 30 und 40 des Systems/360 und gleichzeitig das kleine kommerzielle Systeme/3 der späteren General Sytems Division (GSD) überflüssig gemacht hätte.

BD: Sie heben sofort die interne Konkurrenz hervor. Fast kann man meinen, dass diese wichtiger war als die externe Konkurrenz. Dieser Vorwurf wurde uns IBMern damals häufig gemacht. Halten Sie ihn für berechtigt?

 EV: Dieser Vorwurf ist berechtigt. Die IBM war in „Divisions“ aufgeteilt, die bestimmte Hardwareproduktbereiche und als Anhängsel ein dazugehörendes Betriebssystem abdeckten. Wir gehörten zur Data Systems Division (DSD) und beackerten hier das untere Ende dieses Bereichs. Poughkeepsie hatte das obere Ende und Endicott den mittleren Bereich. Diese beiden viel größeren Labors, die auch das Division Management stellten, hatten kein Interesse sich mit anderen Systemlabors (wie Rochester oder San Jose) anzulegen. Bob Evans [damals Vizepräsident und Entwicklungschef der DSD] versuchte dies, war aber nicht erfolgreich, da das Corporate Management angesichts der Profitabilität der IBM und ihrer Marktmacht im Computerbereich, diese Produktproliferation als nicht kritisch ansah. Es gab sogar Personen, speziell im Marketing- und Forschungsbereich, die  ̶   etwas arrogant und kurzsichtig  ̶  diese sogar positiv unterstützten nach dem Motto „Wenn wir schon keine externe Konkurrenz haben, machen wir dies intern“.

BD: Zurück ins Böblinger Labor. Was beschäftigte Sie als nächstes?

EV: Die Modelle 125 und 115 des Systems/370 waren die ersten Computersysteme, in denen die System/370-Architektur durch ein mikroprogrammiertes Multiprozessorensystem, mit eigenem Speicher per Prozessoreinheit, realisiert wurden. Dabei wurden die Mikroprogramme in Verbindung mit einem Serviceprozessor über eines der ersten zur Verfügung stehenden Diskettensysteme (IGAR) in die einzelnen parallel laufenden Prozessoren geladen und so das Gesamtsystem initialisiert (engl. bootstrapping). Die einzelnen Prozessoren waren auf ihre Aufgaben zugeschnitten, so der Serviceprozessor (SVP), die I/O-Prozessoren und die Instruction Processing Unit (IPU). Ihr Zusammenspiel wurde über den SVP koordiniert. Das war eine technologische Entwicklung, die weit über damals implementierten CPU-Strukturen hinausging.

BD: Zwischen dem Modell 115 und der IBM 4331 liegen fast sechs Jahre. Das war die berühmt-berüchtigte FS-Zeit. Die Ziele der FS-Architektur hatte ich in einem Nachruf auf George Radin in diesem Blog erklärt. Was verbinden Sie mit FS? Waren es wirklich völlig verlorene Jahre aus Böblinger Sicht?

EV: Das FS-Projekt trieb die Computer-Technologien voran in Bezug auf Architektur und Programmierung. Für die Prozessoren-Entwicklung selbst aber waren es verlorene Jahre, welche die IBM nur auf Grund ihrer Markmacht überlebte. Die 4331-1 war meiner Ansicht nach das größte Geheimprojekt (engl. bootlegging) in der IBM-Geschichte und nur so gelang es nach mehr als vier verlorenen Jahren ein System innerhalb kürzester Zeit (18 Monate) auf den Markt zu bringen. Dieses System war voll S/370-kompatibel.

BD: Mit der IBM 4331 verbinde ich zwei technische Problemstellungen, mit denen wir beide gemeinsam zu kämpfen hatten, die spezielle Rechnerarchitektur für die kleinen Systeme der System/370-Familie, E-Mode genannt, und die Plattenarchitektur, als Fixed Block Architecture (FBA) bekannt. Der E-Mode bot einen einzelnen in Mikrocode realisierten virtuellen Adressraum von 16 MB an. Durch FBA wurden Magnetplatten mit fester Blocklänge (damals 512 Bytes) beschrieben. In beiden Fällen ging es darum, Hardware-Kosten zu sparen, teilweise zu Lasten einer speziellen Software-Entwicklung. Ich sehe dies als Tradeoff, der nur in einer spezifischen Phase unserer Technologie zu rechtfertigen war. Sehen Sie dies auch so? War die Koppelung der Böblinger Hardware nur an das Betriebssystem DOS/VS nicht  zu einschränkend, wo doch bereits viele Nutzer mit Hilfe von VM/370 alternative Software-Umgebungen betrieben?

EV: Ich sehe die angeführten Punkte nicht ganz so. Der E-Mode für die S/370-Systeme war am Anfang durch die Hardware-Kosten getrieben. Die 4331 war aber schon voll S/370-kompatibel. Das dadurch entstandene Betriebssystem DOS/VSE hätte sehr wohl als einziges Eingangssystem der IBM dienen können. Dies wurde aber verpasst, weil die DOS/VSE-Entwickler nicht erkannten, dass in diesem Bereich die Benützbarkeit wichtiger ist, als die funktionelle Komplexität. Dadurch entstanden zur S/370 inkompatible Architekturen und Betriebssysteme, die nicht notwendig gewesen wären. Die FBA-Architektur war durch die Plattentechnologie getrieben. Sie hätte ohne weiteres später als Teil einer Erweiterungsstrategie benützt werden können, was ja auch zum Teil geschehen ist.

BD: An der obigen Tabelle ist sehr schön zu sehen, wie die Leistungsfähigkeit Böblinger Systeme wuchs. Schließlich gab es auf der Hardware-Seite keinen Unterschied mehr zu den Großsystemen, was die Architektur der Systeme betraf. Was kennzeichnete diese Systeme?

EV: Die IBM 4361 (intern Anton genannt, nach dem Skiort St. Anton), als Weiter-entwicklung der 4331, war der erste IBM-Rechner, bei dem die Bedienerkonsole ein Bildschirm war, der am Serviceprozessor angeschlossen war. Sowohl das Betriebssystem als auch die Mikroprogramme,  inklusive der Hardware-Wartungsprogramme, konnten von hier aus gesteuert werden. Für die IPU wurde ein Konzept für den S/370-Instruktionssatz entwickelt, bei dem ein sogenannter RISC-Instruktionssatz direkt in Hardware implementiert wurde. Nur die komplexeren Instruktionen wurden per Mikroprogramm ausgeführt. (Weitere Details beschreibe ich bei der späteren Frage über RISC-Prozessoren). Dass dieses Konzept in der IBM nicht erkannt und vorangetrieben wurde, bezeichnete Jack Kuehler [damals IBM Vizepräsident] später als seinen größten Fehler in seinen technologischen Entscheidungen. Die 4361 war in ihrer Leistungsfähigkeit (gemessen als Leistung pro Anzahl der Schaltkreise) allen IBM-Systemen in diesem Zeitraum so überlegen, dass wir  ̶  in einer speziellen durch die Corporation eingesetzten Taskforce  ̶  den Entwicklern aus Poughkeepsie, Endicott und Rochester unseren Designs erklären mussten. Man hat das 4361-Konzept als „best of breed“ anerkannt, aber in den anderen Labors wurden daraus keine Lehren gezogen.

BD: Welche ehemaligen Kollegen trugen den maßgeblichen Anteil an dem Erfolg der Systementwicklung? Mit welchen andern Labors der Firma bestanden intensive Kontakte?

EV: Wichtig war für mich ein Team zu haben, das ich an die durch den schnellen technologischen Fortschritt gegebenen Möglichkeiten heranbringen konnte. Die Struktur des Teams musste so aufgebaut sein, dass es Personen gab, die mich hierbei kritisch begleiteten (z.B. Helmut Painke und Günter Knauft), aber auch Personen beinhaltete die entweder die vorgegebene Richtung dann umsetzen konnten (z.B. Leo Reichl und Horst von der Hayden) oder die auf Grund ihrer technischen Brillanz einsame Spitze waren (z. B: Johann Hajdu und Hans-Hermann Lampe) und Personen mit denen ich dies zu einer Gesamtlösung zusammenbringen konnte (z.B. Helmut Weber und Karl-Heinz Strassemeyer). Diese Entwicklung war auch durch die engen Kontakte mit der Technologieentwicklung des Labors (die Kollegen Folberth und Spielmann) möglich. Es bestanden weiterhin enge Kontakte zu den Labors in Endicott und Poughkeepsie, in Teilen zur Technologieentwicklung in East-Fishkill und zu Research Centers in Yorktown Heights und Almaden.

BD: In der Frage, welche Rolle die RISC-Architektur spielen sollte, waren Sie und George Radin geteilter Meinung. Können Sie in wenigen Sätzen den damaligen Disput beschreiben?

EV: Wie bereits gesagt, hatte die 4361-IPU einen RISC-Instruktionssatz der aus einer Untermenge der S/370 Instruktionen vom Typ RR, RX und SI bestand. Dieser Instruktionssatz war für den sogenannten „Commercial Instruction Mix“ nur 2-3%  langsamer als der von Radin entwickelte, der auch nach dem damaligen Data General Commercial Rating (DGCR) gemessen wurde. Er war auch im Implementierungsaufwand (Schaltkreise/DGCR) absolut konkurrenzfähig. Dies passte Radin und anderen Research-Gurus nicht. Deshalb wurde nie der Versuch unternommen, auf diesem Instruktionssatz basierend, auf der S/370/125 UNIX laufen zu lassen, darauf die DG-Software-Systeme zu konvertieren oder diesen auf Effektivität mit den beim System/1800, dem System/36 und dem späteren System/38 und AS/400 benützten Architekturen zu vergleichen. Wir wussten, dass wir im Durchsatz besser oder zumindest gleich gut wie diese Systeme gewesen wären.

Die IBM hätte in diesem Fall  große Teile ihrer Ressourcen in Research und in GSD nicht mehr gebraucht und hätte immense Mengen an Geld sparen können und sich für Konkurrenzsoftware zu diesem Zeitpunkt öffnen können. Dazu war die IBM Managementstruktur zu wenig flexibel, technisch, in vielen Fällen, zu inkompetent und viel zu stark nach innen orientiert. Ich habe nur zwei Manager kennengelernt, die dies verstanden haben: Jack Kuehler und Earl Wheeler [Wheeler stammte aus der DOS-Entwicklung in Endicott und leitete später das gesamte Software-Produkt-Geschäft der IBM]. Beide haben mir in Gesprächen nach ihrer Pensionierung bestätigt, dass sie die Nichtverfolgung dieses Zieles als einen ihrer größten Fehler sahen und sie die Durchsetzung dieses Konzepts auch unterlassen haben, weil sie nicht gegen den Rest der IBM antreten wollten.

BD: Von Bob Evans [2] stammt die Aussage, dass IBM auch im PC-Geschäft hätte erfolgreich sein können, wenn man voll auf RISC-Mikroprozessoren gesetzt hätte, und zwar unter Beibehaltung aller Software-Rechte. Was wäre, wenn…? Solche Diskussionen sind zwar meist fruchtlos. Dennoch würde mich interessieren, welche Gründe Sie für IBMs Rückgang im Hardware-Geschäft anführen würden. Welche Fehler wurden von unsern ehemaligen Hardware-Kollegen gemacht? Welche Rolle spielten externe Einflüsse?

EV: Bob Evans hat vollständig recht: Nur noch ein zusätzlicher Kommentar: IBM kam hier in Schwierigkeiten, weil sie keine Struktur und zu wenige Manager hatten, die gesehen hätten, dass das Vorantreiben der Technologien interne Strukturveränderungen erfordert. IBM war zu einer Bürokratie degeneriert, in der die Bürokraten, als inkompetente Produktplaner und Produktmanager getarnt, den Fortschritt verhinderten. Die Wenigen, die dies hätten noch ändern können, hatten keine Chance sich durchzusetzen und haben zum Teil dies auch nicht versucht. Tödlich für die IBM war hier das Fehlen einer technisch kompetenten Person (wie z.B. Fred Brooks bei der S/360-Architektur), der die Hardware und Software in ein umfassendes System forciert hätte. Jack Kuehler [von der Plattenentwicklung kommend] hatte hier zu wenig Software-Hintergrund, Bob Evans hatte zu diesem Zeitpunkt nicht mehr den Einfluss, um dies weitertreiben und umsetzen zu können. Die Größe der IBM und ihre Inflexibilität über Organisationsstrukturen hinweg machten sich hier bemerkbar.

BD: Während Ihrer Zeit als Leiter des PPDC und auch nach Ihrer IBM-Zeit waren Sie vorwiegend im Software-Geschäft tätig. Kann man daraus schließen, dass Sie der Software ein größeres Potenzial beimessen als der Hardware, oder ist es nur der Ausdruck Ihrer Vielseitigkeit? Teilen Sie die Meinung, die auch unser Ex-Kollege Karl-Heinz Strassemeyer in diesen Blog vertrat, dass eine Firma, die nicht eine Gesamtsystemsicht vertritt, also Hardware und Software als Einheit betrachtet, einen Fehler macht? Hat IBM nicht zu lange und zu sehr das von Hardware unabhängige Software-Geschäft unterschätzt? Rettete nicht der von Earl Wheeler aufgebaute und später von Steve Mills geleitete Software-Bereich in den letzten Jahrzehnten die IBM vor dem Bankrott? Wie sehen Sie heute die Beziehung von Hardware und Software und die Zukunft der IBM als Teil der Software-Branche?

EV: Ich verließ 1987 die Systementwicklung und das Böblinger Labor und übernahm in der IBM Deutschland als Direktor die Planungs- und Softwareaktivitäten. Das schloss das Program Product Development Center (PPDC) in Sindelfingen mit ein. Dieses nahm organisatorisch eine Zwitterstellung ein, indem es Softwareprodukte entwickelte, aber nicht wirklich in die Organisation der IBM Software-Produktentwicklung integriert war. Meine Kontakte in die US-Entwicklungsorganisationen und das Corporate Management halfen mir, diese Entwicklungsgruppe weiter auszubauen und den unkontrollierten Wildwuchs von Softwareaktivitäten innerhalb der IBM Deutschland zu straffen.

Ich betrachte aber diesen Wechsel in die IBM Deutschland als meinen größten Fehler in meiner IBM-Laufbahn, da ich mich in einer aufgeblähten, rein durch Vertriebsanreize getriebenen Marketingorganisation wiederfand. Nachdem man mir die Planungsaktivitäten weggenommen hatte, wollte ich die IBM verlassen. Ich besprach dies mit Earl Wheeler im Februar 1990 in Berlin und er bot mir einen Job an, der alle Softwareentwicklungsaktivitäten seiner Organisation in Europa unter meiner Leitung konsolidierte. Dies betraf die Labors in Dublin, Warwick, Wien und das PPDC, das auch weitgehend von ihm finanziert und später als German Software Development Lab (GSDL) in diesen Verbund integriert wurde. Im März 1990 informierte Earl Wheeler in einem kurzen Schreiben den damaligen Geschäftsführer der IBM Deutschland (Hans Olaf Henkel) über diese Organisationsänderung.

Bis zu dem mit meiner Pensionierung verbundenen Ausscheiden aus der IBM Ende 1995 berichtete ich an Earl Wheeler und an seinen Nachfolger Steve Mills. Ich konzentrierte die Aktivitäten der genannten Labors auf Datenbankaktivitäten, Dokumentenmanagement und neu hinzukommend Workflowmanagement. Im Rahmen der Konsolidierungsmaßnahmen unter Lou Gerstner mussten wir in den folgenden Jahren Dublin, Warwick und am Schluss auch Wien schließen und diese Aktivitäten im GSDL konsolidieren. Im Zeitraum von 1990 bis 1995 war übrigens das GSDL die einzige Entwicklungsorganisation innerhalb der gesamten IBM, die wuchs. Besonders unter Steve Mills wurde die Softwareorganisation stark ausgebaut und ohne diese erfolgreiche Organisation hätte es die IBM nie geschafft, sich von einer fast ausschließlich von Hardware getriebenen Organisation in ein durch Orientierung auf Software und Service erfolgreiches Unternehmen umzuwandeln.   

BD: Das Softwarezentrum Böblingen-Sindelfingen (SBS) ist eine Gründung der beiden benachbarten Städte. Obwohl deren Zusammenarbeit sonst oft schwerfällt, hier scheint sie zu klappen. Worauf führen Sie den anhaltenden Erfolg des Zentrums zurück? Welches Profil haben typische Firmengründer? Was ist ihr Geschäftsmodell? Woher kommen die Aufträge? Welche Rolle spielen Hardware-Projekte? Gab es auch Probleme und Misserfolge?

EV: Als ich Ende 1995 mit 63 Jahren aus der IBM ausschied, wurde mir angeboten das SBS aufzubauen, das in einem von der IBM aufgegebenen Laborgebäude für Bankenterminalentwicklung untergebracht war. Diese Organisation sollte in Form eines Vereins, kleine neuzugründende Softwareunternehmen unterstützen und ihnen eine Infrastruktur für deren erfolgreichen Aufbau anbieten. Diese Vorhaben wurde vom Land Baden/Württemberg (unter Erwin Teufel als Ministerpräsident und Dieter Spöri als Wirtschaftsminister) über eine Anfangsfinanzierung unterstützt, wurde in der IHK organisatorisch verankert und vorangetrieben, von Daimler-Benz, HP und IBM als mögliche Projektlieferanten unterstützt. Es erhielt von den Städten Böblingen und Sindelfingen positiven Beistand als Teil ihrer Industrieansiedlungspolitik.

Von Anfang an wurde der Fokus ausschließlich auf die Software-getriebene Serviceentwicklung gelegt und Firmen in den Verbund aufgenommen, die diese Aufgabe entweder direkt oder indirekt wahrnahmen. Außerdem mussten sie willens sein mit anderen Firmenpartnern im SBS-Verbund zu kooperieren. Hardware orientierte Entwicklungen waren dabei nur als Träger für neue Softwaretechnologien interessant. Zusätzlich wurde diesen Firmen in der Projektfindung von in der Region ansässigen Großfirmen wie Daimler, HP und IBM aktiv unterstützt. Diese Auswahlkriterien und die damit verbundene Firmenselektionen wurden rigoros durchgesetzt und Verwässerungen durch Einflussnahme von außen (Kommunen, IHK und politische Gremien) minimiert. Diese Vorgehenswiese war und ist der Schlüssel zum Erfolg des SBS.

Im SBS waren bei meinem Ausscheiden 42 Firmen mit 220 Mitarbeitern angesiedelt. Diese Zahlen wuchsen bis heute auf 110 Firmen mit 750 Mitarbeitern an. Dabei wuchsen einige Firmen so stark, dass sie nur noch ihren Hauptsitz im SBS haben, wie Spirit/21 mit heute 500 Mitarbeitern, oder dass sie aus dem SBS in eigene Gebäude umzogen wie die Compart AG mit heute 200 Mitarbeitern.

BD: Sie waren bzw. sind auch selbst an einer der dort ansässigen Firmen beteiligt. Welche ist das? Was tut sie? Welche Aufgaben haben Sie?

EV; Während meiner Zeit als Leiter des SBS wurde ich von vielen Firmen angesprochen, die mich als Geschäftsführer (CEO), Entwicklungsleiter oder Berater einstellen wollten. Das für mich interessanteste Angebot kam von dem amerikanischen Unternehmen Xybernaut, die in Fairfax, VA, beheimatet war und absoluter Technologie- und Marktführer auf dem Segment des Mobile & Wearable Computing war. Da ich mit meiner Familie nicht nach Amerika gehen wollte, verlegte diese Firma ihre vollständige Entwicklung in eine deutsche Tochter, die im Softwarezentrum angesiedelt wurde und ernannten mich zum Entwicklungschef als Senior Vice President der Xybernaut Corp. Die Übernahme dieser für mich sehr interessanten Aufgabe erforderte, dass ich im Jahr 1999 die Führung des SBS aufgab und mich nur noch dieser Aufgabe widmete.

Dieses Arbeitsgebiet war sehr interessant und auf mein Wissen und meine Erfahrung zugeschnitten. Wir waren an der Vorderfront der technologischen Entwicklung und den Marktgegebenheiten etwa fünf bis zehn Jahre voraus Die Firma Xybernaut hatte nicht die Kapitalkraft um die Zeit, bis ein profitables Geschäft daraus möglich war, zu  überstehen. Als die Mutterfirma 2005 in Insolvenz ging, löste ich die deutsche Tochter aus dieser Firma heraus und übernahm sie als persönlich haftender Eigentümer. Sie heißt teXXmo Mobile Solution GmbH & Co KG. Die Firma arbeitet heute als profitables Unternehmen mit einem guten Ruf auf dem mobilen industriellen Sektor in Europa und ist immer noch im SBS angesiedelt.  

BD: Wer Sie vor 40 Jahren in Ihrem Büro aufsuchte, dem konnte passieren, dass er ins Testlabor geschickt wurde. Dort konnte man Sie dann im weißen Hemd und mit Krawatte hinter einer Maschine liegend finden. Sie gaben gerade einem Techniker Hinweise, der aufgelötete Schaltverbindungen überprüfte. Sind Sie immer noch der Ingenieur, der auch im Alter gerne selber mit Hand anlegt?

EV: Ja, das mir macht mir immer noch Spaß.

BD: Lange nach Beendigung Ihrer aktiven Zeit als Basketballer leiten Sie eine örtliche Basketball-Abteilung. Ist das ein Ausgleich für einen Manager oder ist es die gleiche Tätigkeit, nur mit andern Leuten und anderen Zielen? Demgegenüber muss doch das Schnapsbrennen aus den eigenen Mirabellen zu hervorragenden geistvollen Produkten zu führen. Oder kann nur das Golfspielen sie wirklich entspannen?

EV: In die Leitung der Basketballabteilung wurde ich von alten Basketballkollegen getrieben, da die Gefahr bestand, dass die Abteilung auseinander bricht. Leider habe ich den Eindruck, dass ich das zu gut mache und ich daher nicht wieder richtig aus der Sache herauskomme. Beim Schnapsbrennen als meinem dritten „Standbein“ kommt meine in erster Generation schwäbische Seele zum Vorschein: „Ja nichts verderben lassen!“ ist das Motto. Beim Golfspielen entspanne ich tatsächlich und meine Frau und ich haben gemeinsam viel Spaß dabei.

BD: Herr Vogt, ich danke Ihnen sehr für das ausführliche Interview und wünsche Ihnen weiterhin Erfolg bei all ihren Geschäften.

Zusätzliche Referenzen 
  1. Painke, H.: Forschung und Entwicklung in der IBM Deutschland. 4. Die IBM Laboratorien Böblingen: System-Entwicklung. 2003
  2. Evans, B. O.: The Stumbling Titan. In: P. J. Denning, R. M. Metcalfe: Beyond Calculation. The Next Fifty Years of Computing. 1998

Samstag, 28. März 2015

Wunder gibt es immer wieder…

So sang Katja Ebstein 1970, also vor 45 Jahren. Am Ende des Liedes hieß es: ‚Wenn sie Dir begegnen, musst Du sie auch sehn‘. Wieviel Wahrheit und Lebensklugheit in diesem Text steckt, ist erstaunlich. Am letzten Donnerstag sprach Gert Scobel bei 3SAT mit drei Experten über dieses Thema. Seine  Gesprächspartner waren der Philosoph Volker Gerhardt, der Evolutionsbiologe Ulrich Kutschera und der Soziologe Detlef Pollack. Der Titel der Sendung hieß Glaubenssache.

Am Morgen nach der Sendung tauschten mein hiesiger Freund und Blog-Partner Hans Diel und ich uns kurz aus. Nach unserer Meinung werden Wunder viel zu schnell mit dem Begriff des Transzendenten, also dem Religiösen, in Verbindung gebracht. Wunder vollkommen zu leugnen, halten wir ebenfalls für falsch. Nach unserer Ansicht gibt es mindestens zwei Gründe für unerklärliche Phänomene:

(1) Es gibt Koinzidenzen, bei denen keine Kausalität besteht.

Ein Beispiel hatte ich einige Stunden zuvor selbst erlebt. Ich hatte ein Problem mit meinem Rechner. Ich rief einen Kollegen an in der Hoffnung, dass er mir helfen könnte. Er war nicht zuhause. Deshalb hinterließ ich meinen Hilferuf auf seinem Anrufbeantworter. Eine Stunde später war das Problem wie von selbst verschwunden. Bei vielen Erzählungen von Wunderheilungen verläuft es ähnlich. Entscheidend ist, dass man etwas tut. Man betet zu einem Heiligen oder macht sogar eine Wallfahrt. Das versetzt vermutlich die körpereigenen Heilungskräfte in die Lage tätig zu werden.

(2) Es gibt eine Realität auch außerhalb dessen, was wir messen können.

Wie viele Dinge wurden in früheren Jahrhunderten als Wunder angesehen, die wir heute rein naturwissenschaftlich erklären können. Dazu gehören Blitz und Donner, Erdbeben und Pandemien. Nur besonders naive Menschen sind der Ansicht, dass wir heute alles wissen. Wer etwas über den Stand der Naturwissenschaften weiß, wird zugeben, dass unser Wissen noch große Lücken enthält. So wie unsere menschlichen Sinne nicht in der Lage waren, Kräfte wie Magnetismus und Radioaktivität zu messen, so gibt es heute viele Phänomene, die wir noch nicht messen können. In diesem Blog hatte ich darüber berichtet, wie unser vor kurzem verstorbene Kollege Karl Ganzhorn sich bemühte, das Phänomen Wünschelrute naturwissenschaftlich zu erklären. Auch bei dem oft zitierten Blutwunder von Neapel halten Hans Diel und ich es für möglich, dass dabei unbekannte chemische Prozesse im Spiel sind.

Peter Hiemann aus Grasse schrieb am selben Tag dazu:

Ich habe die Diskussion verfolgt und war gespannt, ob Einsichten zur Sprache kommen, in wieweit religöse Dogmen eine Rolle spielen, heutige kulturelle Auseinandersetzungen zu erklären. Der Einfluss der weltweit agierenden religiös orientierten Institutionen auf gesellschaftliche Verhältnisse ist nicht zu übersehen, vor allem in Staaten des Nahen Ostens. Ich vermute, bei den Auseiandersetzungen zwischen schiitisch und sunnitisch orientierten Regimen werden religiöse Argumente nur als "Mittel zum Zweck" verwendet. In Israel werden die religiösen "Fundamentalisten" als Koalitionspartner "gebraucht". Meine Einschätzung der Diskussion: Der einzige interessante Gesprächspartner Scobels war der Kultursoziologe Detlef Pollack. Durch Wikipedia habe ich gerade erfahren, dass Pollack über die Religionstheorie Niklas Luhmanns und ihre systemtheoretischen Voraussetzungen promoviert hat. Welch ein "Zufall" und kein Wunder, dass der Mann mir was zu sagen hat. Die Beiträge von Gerhardt und Kutschera über das Verhältnis "Wissen" vs. "Glaube" kann man getrost vergessen.

Übrigens hat sich der zur Zeit sehr populäre französische Schriftsteller Michel Houellebecq zum Thema Religion ausführlich in seinem Buch "Unterwerfung" geäussert:  "Der Rationalismus wird von immer mehr Menschen als erstickend empfunden. Es gibt eine spirituelle Macht, die noch aktiv ist. ....Wozu soll es gut sein, autonom sein zu wollen, wenn man es nicht schafft. ... Ideologisch ist die Religion das beste Unterwerfungssystem. Denn sie liefert die Grundlage des Patriarchats: Der Mensch ist Gott unterworfen und die Frau dem Mann . ... Die Aufklärung ist am Ende. Der Humanismus ist tot." Houellebecq hat obige Aussagen in einem Spiegel Interview (Der Spiegel 10/2015) gemacht.

Darauf erwiderte Hans Diel aus Sindelfingen:

mir hat der Kultursoziologe Pollack überhaupt nicht gefallen, aus dem ganz banalen Grund, weil ich ihn zu schlecht (akustisch) verstanden habe. Dagegen hat der Philosoph Gerhardt mir eine interessante Sicht eröffnet, indem er meinte, dass sich Glauben und Wissen ergänzen und beides auf einem spezifisch menschlichen Streben nach Vertrauen basiert.

Mir gefällt es, wenn dieser positive Aspekt von sowohl Wissen als auch Glauben einmal erwähnt wird. Selbstverständlich muss danach darauf hingewiesen werden, dass Vertrauen nie unbegrenzt sein sollte und immer wieder mit einer Korrektur gerechnet werden muss. Beispiele für übertriebenes Vertrauen gibt es nicht nur bei den Religionen und ihren Dogmen, sondern auch in den Wissenschaften. Wie oft haben wir uns in diesem Blog gegen spekulative Theorien, voreilige Verallgemeinerungen, und unausgegorene Theorien in der verschiedensten Wissenschaftsgebieten ausgesprochen. Dabei glaube ich, dass oft nicht einmal die Erschaffer der unausgegorenen Theorien, etc. zu kritisieren sind, sondern noch mehr das „wissenschaftsgläubige“ (interessantes Wort im Kontext unseres Themas!) Publikum, welches zu schnell diese Theorien als gesicherte wissenschaftliche Erkenntnisse betrachtet.

Ich glaube (!), dass ein Grundübel womöglich darin besteht, dass wir (Durchschnitts-)Menschen zu wenig bereit oder in der Lage sind, bei bestimmten Themen mit Wissenslücken und Ungewissheiten zu leben. (Beispiel aus der Physik: Viele Physiker "glauben" lieber an die Vielweltentheorie als dass sie mit dem betreffenden Unwissen beim Messproblem der Quantenphysik leben können.) Das hört sich jetzt so an, als würde ich den oben von mir bejahten Aspekt Vertrauen und das Streben nach Wissen gering schätzen. Das ist nicht meine Absicht. Vielmehr meine ich

    Es geht nicht ohne ein gewisses Maß an Vertrauen (nicht nur bei Glauben und Wissen)
    Vertrauen sollte aber nicht so weit gehen, dass es dogmatisch wird oder übertrieben wissenschaftsgläubig
    Wenn das Vertrauen in eine bestimmte Sache nicht groß genug ist, das Gegenteil jedoch auch nicht hinreichend begründet ist, bleibt immer noch die Alternative die Sache als offen und ungeklärt zu betrachten.

Am 30.3.2015 schrieb Peter Hiemann:

Vertrauen können alle Wesen mit einem hinreichend komplexen Gehirn empfinden. Es ist keine spezifische menschliche Eigenschaft. Vertrauen gehört nach dem Neurowissenschaftler Antonio Damasio in die Kategorie „Emotionen“, die sich auf Sozialverhalten auswirken (wie Scham, Schuld, Kompassion, Verachtung, Stolz, Ehrfurcht, Bewunderung). Darüber hinaus sind Neurowissenschaftler der Ansicht, dass das menschliche Gehirn die Fähigkeit besitzt, Situationen nicht nur mittels erinnerter Erfahrungen einzuschätzen, sondern intuitiv „Wissenslücken“ durch plausible Vermutungen zu „überbrücken“. Diese Fähigkeit wird im  limbischen System des Mittelhirns vermutet, das entscheidende Funktionen für das Erleben von Emotionen, für Lernprozesse und vermutlich auch für Kreativität bereit stellt. Der Neurowissenschaftler Vilayanur S. Ramachandran vermutet sogar Funktionen im menschlichen Kortex, die bei religiösen Vorstellungen aktiv sind. Der Spiegel hatte 2003 in einem Artikel darüber berichtet.

Die Hypothese, „dass sich Glauben und Wissen ergänzen“ ist gerechtfertigt, wenn mit „Glauben“ plausible Vermutungen im Sinne ungeklärten Wissens gemeint sind oder Vorstellungen, die man als kreative Eingebungen bezeichnen kann. Die Hypothese, „dass sich Glauben und Wissen ergänzen“ ist nicht gerechtfertigt, wenn „Glauben“ sich auf Vorstellungen bezieht, die niemals verifiziert oder falsifiziert werden können.

Übrigens hat sich Einstein in seinem Essay „Wie ich die Welt sehe“ sehr präzis über seine Religiosität geäußert: „Das Schönste, was wir erleben können, ist das Geheimnisvolle. Es ist das Grundgefühl, das an der Wiege von wahrer Kunst und Wissenschaft steht. Wer es nicht kennt und sich nicht mehr wundern, nicht mehr staunen kann, der ist sozusagen tot und sein Auge erloschen. Das Erlebnis des Geheimnisvollen  - wenn auch mit Furcht gemischt – hat auch die Religion gezeugt. Das Wissen um die Existenz des für uns Undurchdringlichen, der Manifestation tiefster Vernunft und leuchtendster Schönheit, die unserer Vernunft nur in ihren primitivsten Formen zugänglich sind, dies Wissen und Fühlen macht wahre Religiosität aus; in diesen Sinn und nur in diesem gehöre ich zu den tief religiösen Menschen. Einen Gott, der die Objekte seines Schaffens belohnt und bestraft, der überhaupt einen Willen hat nach Art desjenigen, den wir an uns selbst erleben, kann ich mir nicht einbilden. Auch ein Individuum. das seinen körperlichen Tod überdauert, mag und kann ich mir nicht denken; mögen schwache Seelen aus Angst oder lächerlichem Egoismus solche Gedanken nähren. Mir genügt das Mysterium der Ewigkeit des Lebens und das Bewusstsein und die Ahnung von dem wunderbaren Bau des Seienden sowie das ergebene Streben nach dem Begreifen eines noch so winzigen Teiles der in der Natur sich manifestierenden Vernunft.“

Ein bekennender Ungläubiger staunt über die unglaublich vielfältigen Resultate der biologischen Evolution ähnlich wie Einstein. Er glaubt aber nicht, dass sich in evolutionären Entwicklungen der Natur etwas wie „Vernunft“ manifestiert. Er hofft (vielleicht vergeblich), dass menschliche Denk- und Verhaltensweisen letztlich von „Vernunft“ geprägt sind. 


Ausblick und Anregung

Zweifellos ist der Bezug zwischen Glauben und Wissen sehr interessant. Dass uns Einstein mal wieder tolle Zitate liefern kann, ist nicht mehr überraschend. Nur führt es etwas weg von der aktuellen gesellschaftlichen Betrachtung, die Michel Houellebecq so zusammenfasste: 'Die Aufklärung ist am Ende.'

Interessant wäre es, darüber zu nachzudenken, warum westliche Gesellschaften wie etwa die USA sich so stark von den Naturwissenschaften abwenden und ihr Heil bei religiösen Agitatoren suchen. Ein Beispiel ist der Zulauf, den die Kreationisten, also die Gegner der Evolutionslehre, erfahren. Dass im Nahen Osten der Schritt in Richtung Aufklärung so stark bekämpft wird, ist m. E. ein davon zu trennendes Phänomen. Es ist jedoch nicht weniger ernst zu nehmen.

Nicht das 'ob' und 'wie' interessieren mich dabei, sondern das 'warum'. Das eine ist Beobachtung und Statistik, das andere ist Begründung und Erklärung. Es ist so zu sagen der zweite Schritt.

Montag, 23. März 2015

Noch einmal: Was das Internet sein könnte und sein sollte?

Im August 2013 hatte ich mich mit der Frage befasst, was das Internet ist und was es einmal sein wird. Nur am Rande behandelte ich die Frage, die für viele Beobachter und Kommentatoren die zentrale Frage zu sein scheint, nämlich: Was das Internet sein könnte oder sein sollte. Aus meinem letzten Beitrag wiederhole ich einige der Kernsätze.

Das Internet ist die nützlichste Errungenschaft der praktischen Informatik für die gesamte Wirtschaft und Gesellschaft. …Zu hoffen, dass die durch das Internet verursachte Entwicklung aufzuhalten oder gar rückgängig zu machen ist, ist eine Illusion. … Da es keinen Fortschritt ohne Kosten gibt, keine Gewinner ohne Verlierer, darf man die Kehrseiten des Internet nicht aus dem Auge verlieren. Aus ihnen entstehen Gefahren und Ängste. … Alt-Hippies, die glauben, dass man das Internet auf seine akademischen Anfangsjahre zurückdrehen kann, … verwechseln gerne Utopie und Realität. Sie zu bekehren lohnt sich nicht.

Bei dem letzten Satz dachte ich damals unter anderem an Jaron Lanier, der im Oktober 2014 den Friedenspreis des deutschen Buchhandels erhielt. Soeben las ich Andrew Keens im Jahre 2015 erschienenes Buch Das digitale Debakel. Der Untertitel lautet: Warum das Internet gescheitert ist – und wir es retten können. Hier wird das Scheitern des Internets bereits zur historischen Tatsache erklärt. Keens Buch vertieft die von Lanier vertretene Kritik des Internets.

Keen wurde 1960 in London in die Familie eines aus Polen stammenden Tuchhändlers geboren. Ein Onkel leitete die Kommunistische Partei Englands. Er hatte in London einen Bachelor in Geschichte erworben, ehe er über Sarajewo nach Berkeley ging. Dort erwarb er einen Master in Politikwissenschaft. Er arbeitete zuerst für die Musikindustrie, ehe er sich als Medienunternehmer selbständig machte. Er ist aktiver Blogger und hatte eine Fernsehserie beim BBC. Im Folgenden werde ich einige derjenigen Thesen seines Buches herausgreifen und besprechen, über die nach meiner Ansicht ernsthaft nachgedacht werden sollte.

Missachtung intellektueller und künstlerischer Leistungen

Es ist ein Vorwurf, bei dem der Musiker Lanier und der Musikagent Keen sich sofort einig sind, dass nämlich die Macher des Internets keinerlei Respekt für die Leistungen von Intellektuellen und Künstlern zeigten. Es war der Student Shawn Fanning und seine Kommilitonen, die 1999 mit der Erfindung von Napster den Austausch von MP3-Dateien erleichterten. Als Folge davon kam es zu massenhaften Raubkopien und der Zerstörung des Musikgeschäfts. In den USA sank die Zahl professioneller Musiker zwischen 2002 bis 2012 von 50.000 auf 30.000, also um 45%. Steve Jobs versuchte mittels iTunes die Branche zu retten. Er stoppte zwar den Trend nach unten, aber auf sehr niedrigem Niveau.

Obwohl dem Spuk des ‚File Sharing‘ in den USA durch erfolgreiche juristische Aktionen der Rechtebesitzer weitgehend der Stachel genommen wurde, wichen viele der zum kriminellen Bereich zählenden Akteure ins Ausland aus. Dem deutschen Kim Dotcom wurde erst im fernen Neuseeland sein Geschäft unterbunden. Die Filmbranche leidet auch heute noch unter Raubkopien einer Firma aus Buenos Aires. Kevin Kelly, den Herausgeber des Online-Magazin Wired, der einst die ‚Share Economy‘ als der Weisheit letzten Schluss hochjubelte, bezeichnet Keen als meschugge. Dem kann ich nur beipflichten.

Zwischen Haifischbecken und Ozean der Banalitäten

Im Internet herrsche der Pöbel. Das Niveau der Kommunikation würde sich den Bedürfnissen eines Massenmediums anpassen. Negative Nachrichten würden sich leichter verbreiten als gute, Ärger schneller als Freude. Jeder kenne das Problem der Shitstorms. Der Grund sei, dass es keine Türsteher- oder Vermittlerfunktion mehr gebe. Verbrechen wie Diebstahl  und Kinderpornografie hätten ein leichtes Spiel. Das Übergreifen von Werbung und Spam würde zur Landplage. Kleine Gauer tobten sich aus, aber auch die organisierte Kriminalität. Hier wird unterschwellig suggeriert, dass dies alles bei klassischen Medien wie Papier und Vinyl kein Problem gewesen sei. Wer wollte, der konnte sich auch in der Vergangenheit sehr leicht vom Gegenteil überzeugen. Aber wer spricht noch darüber, denn jetzt ist alles viel schlimmer. Es wird jetzt zum Exzess betrieben, von deutlich mehr Leuten mit größerer Wirkung.

Monetarisierung führte zur Monopolisierung des Internets

Nach seiner Entstehung im Militärischen verbreitete sich das Internet bekanntlich anschließend im akademischen Bereich aus. Das von Tim Berners-Lee erfundene WWW diente sogar primär der öffentlichen Forschung. Der Sündenfall kam mit Jim Clark und Marc Andreessen, die mit Netscape anfingen, eine Kommerzialisierung des Internets zu betreiben. Es blieb nicht aus, dass immer mehr Leute versuchten mittels des Internets Geld zu verdienen, es zu monetarisieren. Das Internet habe dadurch seinen Anstand und seine Seele verloren. Viele der Investoren blieben bereits im Dotcom Crash um die Jahrtausendwende auf der Strecke.

Einige Unternehmen überlebten den Crash, indem sie sich zu Monopolisten entwickelten. Die bekanntesten Beispiele sind Amazon und Google. Sie hätten sich das Internet unter den Nagel gerissen. Sie vollzogen eine Wende um 180 Grad und machten alles zu Geld, was dafür in Frage kam: Wissen, Unterhaltung, ja Freundschaften. Jeff Bezos meinte, dass das Internet unter einer ‚narrativen Verzerrung‘ leide, indem es eine heile Welt verspräche, die es in Wirklichkeit gar nicht gibt. Mit der Firma Amazon strebte er ein Wachsen um jeden Preis an. Gewinne waren für ihn sekundär. Amazon ist heute in der Lage, mit 10 Mitarbeitern den gleichen Umsatz zu erzielen, für den andere Unternehmen der Branche 50 Mitarbeiter benötigen. Dass Bezos dafür von den Mitbewerbern nicht geliebt wird, liegt auf der Hand.

Außerdem betreibe Amazon heute eine Vergewaltigung der Kreativen. Seine Marktmacht erlaubt es, von Verlegern einen höheren Rabatt zu verlangen, als andere Buchhändler dies tun. Google hat das für Zeitungen und Fernsehen so lukrative Werbegeschäft an sich gezogen. Sergey Brin und Larry Page, die beiden Gründer von Google, haben ihre Erfindung des Page Ranking dazu benutzt, um alle andern Suchmaschinen technisch zu deklassieren. Facebook, das als letzter zum Monopolisten aufstieg, verdient sein Geld, indem es die Tatsache ausnutzt, dass Menschen gerne Freundschaften pflegen. Das sind Feststellungen, die völlig zutreffend sind. Noch ist Geldverdienen nicht verboten. Wer das Internet glaubt davon ausnehmen zu müssen, ist selbst schuld.

Zerstörungskraft von Innovationen

Sowohl Amazon wie Google waren sich der Tatsache voll bewusst, dass sie das Geschäftsmodell anderer Unternehmen untergruben, ja zerstörten. Eine zerstörerische Innovation, vor allem wenn sie aus dem Silicon Valley stammt, fragt nicht, ob und wie man sie kontrollieren kann. Sie wird einfach gemacht. Als Folge davon können ein paar Bastler eine ganze Branche zerstören. Google hatte einfach Glück: Nicht nur, dass der Page-Rank-Algorithmus umso effizienter arbeitete, je größer das Internet wurde. Auch das Auktionsmodell für Anzeigen erwies sich als Volltreffer. Heute versuchen Airbnb und Uber jeweils eine ganze Branche anzugreifen, und zwar ohne um Erlaubnis zu fragen. (Airbnb die Hotelbranche, Uber die Taxibranche). Wie zu Zeiten von Napster trifft man sich wieder vor Gericht.

‚Software frisst die Welt auf‘ dieser Ausspruch von Marc Andreessen wird als Menetekel immer wieder zitiert. Gemeint sei: Einer schreibt ein Programm, und alle andern werden arbeitslos oder machen eine Arbeit umsonst, für die bisher bezahlt wurde. Dass es so sein könnte oder sein sollte, lässt sich nicht bestreiten. Nur wer glaubt, das es bereits so ist, ist ziemlich naiv. Generell können natürlich immer mehr Routinearbeiten automatisiert werden. Der Mensch kann und muss sich auf variable und kreative Tätigkeiten konzentrieren. Das erfordert nicht nur ein allmähliches Umdenken, sondern auch eine langfristige Umstellung.

Vom Kult des Scheiterns und dem gesellschaftlichen Widerstand

Die Kehrseite dessen, dass man hohe Risiken eingeht, ist die Gefahr des Scheiterns. Keen amüsiert sich darüber, dass das Scheitern von einige Leuten als die beste aller Erfahrungen herausgestellt wird. Ein Beispiel sei Travis Kalanick, der gerade  mit Uber von sich reden macht. Der Erfolg einiger Firmen des Silicon Valley errege bereits den Missmut der Bürger San Franciscos. So sondere sich Google ab, indem man Mitarbeiter, die in San Francisco leben, mit abgedunkelten Privatbussen transportiere. Der wirtschaftliche Libertarismus führe zu den Erscheinungsformen einer Feudalgesellschaft. Das Beruhigende ist, dass die amerikanische Gesellschaft in dieser Hinsicht erstaunlich wandlungsfähig ist. Die Favoriten von heute werden in 30 Jahren vergessen sein.

Metcalfes Gesetz ist wichtiger als Moores Gesetz

Das Metcalfe'sche Gesetz  besagt, dass der Nutzen eines Kommunikationssystems  mit der Anzahl der möglichen Verbindungen zwischen den Teilnehmern wächst,  ̶  und zwar etwa dem Quadrat der Teilnehmerzahl  ̶  während die Kosten nur proportional zur Teilnehmerzahl selbst wachsen. Es wurde 1980 von Bob Metcalfe in seiner Dissertation formuliert und blieb lange Zeit im Schatten des älteren Mooreschen Gesetzes. Während Moores Gesetz gerade seine Grenzen erfährt, tritt Metcalfes Gesetz immer häufiger in Erscheinung. Es ist der Grund, warum im Internet fast überall Potenzgesetze herrschen, warum Amazon, Google und Facebook sich wie ein Waldbrand ausbreiteten, ja warum der dezentrale Kapitalismus, den das Internet ermöglicht, zum allgegenwärtiger Kapitalismus mutiert.

Die Welt ist heute hypervernetzt, sagte Thomas Friedman von der New York Times. Die Dimension dieses Netzes wird sich sogar noch einmal ausweiten, wenn das Internet der Dinge Wirklichkeit wird. Sogar eine Einbeziehung lebender Tiere ist nicht ausgeschlossen. Unsere Vorstellungskraft reicht einfach kaum aus.

Von der Pareto-Verteilung zur Ein-Prozent-Ökonomie

Jeder Ökonom ist mit dem von Vilfredo Pareto um 1896 formulierten Prinzip vertraut, das besagt, dass 20% der Bürger eines Landes 80% des Vermögens besitzen. Keen sieht in der heutigen Welt eine Ein-Prozent-Ökonomie am Werk. Für ein Prozent der Gesellschaft stehe 99 % der Wirtschaftskraft zur Verfügung. Andere Autoren verwenden den Ausdruck: Der Gewinner erhält Alles (engl. the winner takes it all). Derjenige, der eine Geschäftschance als Erster erschließt, erzielt den vollen Erfolg. Es gibt keine Zweitsieger, die später einsteigen. Was übrig bleibt, ist ein so genannter Langer Schwanz. Die Folge davon ist, dass Unternehmen mittlerer Größe es schwer haben zu überleben. Dasselbe gilt für Künstler, die nicht Weltspitze sind. Am Beipiel von iTunes drückt sich das Prinzip so aus: 94% aller angebotenen Musik- oder Filmaufzeichnungen wurden weniger als 100 mal verkauft, 32% sogar  nur einmal. Die Gefahr, dass Spitzenleistungen die durchschnittlichen Leistungen verdrängen, sieht Keen auch in der akademischen Lehre. Das mit MOOCs verbundene Potential deutet genau in diese Richtung.

Wenn Facebook 19 Mrd. US $ für ein Unternehmen bestehend aus 55 Mitarbeitern zahlt,  ̶  wie im Falle von WhatsApp geschehen  ̶  dann sind dies 345 Mio. $ pro Mitarbeiter. Es liegt hier kein Fall von Hypermeriokratie vor, also von enorm hocheingeschätzten Mitarbeitern. Es sind die Daten, die von dieser Anwendung erfasst werden, die den Unternehmenswert ausmachen. Ähnlich liegen die Dinge bei Google im Hinblick auf Youtube und Google+.

Gefahr der Überwachung durch Wirtschaft und Staat

Wie groß die Gefahr der Überwachung geworden ist, hat Edward Snowden uns allen bewusst gemacht. Dass es in diesem Falle ausgerechnet der Staat ist, vor dem gewarnt werden muss, ist für viele Menschen schwer zu verkraften. Auf die Industrie oder das organisierte Verbrechen zu schimpfen, würde manchen Leuten  leichter fallen. Für Keen ist dies lediglich ein weiteres Indiz dafür, wie gefährlich das Internet ist.

Keens Antwort auf die sich ergebenden Fragen

Noch ist keine einheitliche Antwort zu erkennen. Sie muss und wird sich aber entwickeln. Dass die EU Google zwingt europäische Gesetze einzuhalten, ist ein Anfang. Gut ist auch, dass Amazon gezwungen wird, Gewerkschaften in seinen Betrieben zuzulassen, oder dass die Kunden von Uber und Airbnb der Steuerhinterziehung angeklagt werden. Die neuen Akteure im Markt versuchen manchmal Schlupflöcher zu nutzen, die älteren Akteuren längst verschlossen sind. 

Auch lohnt es sich, über die globale Versteuerung von Unternehmen oder Unternehmern nachzudenken, die sonst versucht sind, einzelne Länder gegeneinander auszuspielen. Es entstehen immer wieder neue Machtkonstellationen oder sie verschieben sich laufend. Der Grundsatz muss jedoch gewahrt bleiben, dass die demokratisch gewählten Regierungen die Möglichkeit haben, wirtschaftliche Mächte zu kontrollieren. Schließlich dürfen wir nicht nur daran denken, was für die Konsumenten gut ist, also für die Kunden der neuen Unternehmen, sondern für alle Bürger aller Länder. Dem kann ich ohne Abstriche zustimmen. Schön wäre es, man könnte etwas Konkreteres sagen.

Dienstag, 17. März 2015

Virtuelle und Erweiterte Realität – mehr als nur technische Spielereien?

Einer der im Titel genannten Begriffe kam schon in einem früheren Beitrag vor. Als Pionier des Gebiets und früher Nutzer des Begriffs Virtuelle Realität in der Informatik ist uns Jaron Lanier begegnet. Die Erweiterte Realität ist eine andere Anwendungsform, die in den letzten Jahren an Bedeutung gewonnen hat. Beide Gebiete sind nur durch die Benennung miteinander verwandt. Beide sind technisch sehr reizvoll und verdienen daher eine bewertende Betrachtung.

Virtuelle Realität

Wie ich in einer Nachbemerkung zu Laniers letztem Auftritt in Deutschland schrieb, ist Virtuelle Realität (engl. virtual realitiy, kurz VR) an sich ein Oxymoron, ein Widerspruch in sich, eine Contradictio in adjecto. Wie in einem früheren Beitrag definiert, ist virtuell das Gegenteil von real. Es ist ein eklatantes Beispiel dafür, wie die natürliche Sprache schon mal missbraucht wird, um den Bedürfnissen der technischen Welt gerecht zu werden. In seinem Buch von 2010 [1] hatte Lanier beklagt, dass durch das Internet diese Art von Anwendungsmöglichkeiten in den Hintergrund gedrängt würde. Er war nämlich um 1980 überzeugt, dass durch die VR-Technik in ferner Zukunft einmal neue Erlebniswelten, ja sogar auch neue Kunstformen entstehen würden. Die Schuld dafür, dass dies nicht geschah, gab er dem alles überwältigenden Erfolg des Internet. In der Besprechung dieses Buches hieß es:

Was entstanden ist, sei eine massenhafte Verbreitung klassischer Informationen, also von Texten, Fotos, Musik und Filmen. … Jeder kann heute Beitrage zu dieser unendlichen Weltbibliothek leisten. Es sind keine Investitionen in teure Geräte mehr nötig. Vor allem aber werden keine Spezialisten, also keine Experten mehr gebraucht. Jeder kann ein Video erstellen und verbreiten, welches dann von Millionen Menschen auf der ganzen Welt konsumiert werden kann.

Mittels eines VR-Systems wird einem Nutzer der Eindruck vermittelt, dass er sich in dem von einem Rechner projizierten Bild oder Raum aufhält und mit den dort befindlichen Objekten interagiert. Der stereoskopische Effekt wird erzielt, indem jedem Auge ein entsprechend modifiziertes Bild zugeführt wird. Dazu ist unter Umständen erheblicher Rechenaufwand erforderlich. Es sind aber auch mehrere Bildschirme nötig, von denen jeder nur von einem Auge gesehen werden kann.

Im Vergleich zu den vorher genannten klassischen Anwendungen erfordert VR schon durch den ‚Headmounted Display‘ einen unverhältnismäßig großen gerätetechnischen Aufwand gemessen an dem Wert der Anwendungen, die sich erschließen lassen. Von dem Software-Aufwand und der erforderlichen Rechnerleistung braucht man gar nicht erst zu reden. Entsprechende Anschaffungen und Entwicklungen scheinen daher bevorzugt für Hochschulen und Forschungseinrichtungen in Frage zu kommen. Auch psychologisch ist eine Schwelle zu überwinden, denn wer möchte schon den ganzen Tag in einer Art von Taucherglocke herumlaufen. Eine Alternative bieten Großbildleinwände. 

Ein Großteil der VR-Forschung verschwand, als der so genannte KI-Winter ausbrach, der bekanntlich etwa 20 Jahre anhielt. Inzwischen versucht eine neue Generation von Entwicklern mit neuer Technik wieder langsam den Kopf zu heben. Ein Beispiel ist Oculus Rift, das bereits von Facebook aufgekauft wurde. Was daraus für die Milliarden von Facebook-Nutzern einmal entstehen soll, ist noch nicht abzusehen. Als potentielle Anwendungen von VR-Lösungen werden folgende Gebiete genannt: Bewertung von Prototypen, Ausbildung von Monteuren oder Piloten, Visualisierungen in Architektur, Chemie oder Medizin.

Erweiterte Realität

Bei dem deutschen Begriff der Erweiterten Realität  ̶  mit großgeschriebenen Attribut  ̶  (engl. augmented reality, kurz AR) vermied man die Schaffung eines einprägsamen Wortpaares, was große Nachteile hat. Man benutzt daher meist das englische Wortpaar, um überhaupt eine Chance zu haben, verstanden zu werden.

AR ist eigentlich keine Informatik, also keine Computergrafik, im engeren Sinne. Man versteht darunter die Ergänzung von Bildern oder Videos mit computererzeugten Zusatzinformationen oder durch Einblendung oder Überlagerung mit zusätzlichen Objekten. Ein bekanntes Beispiel sind Fußball-Übertragungen, bei denen bei Freistößen die Entfernung zum Tor eingeblendet wird. AR-Anwendungen sind meist sehr praktisch und erfordern nur geringe Mehrkosten. Andererseits sind auch futuristische Anwendungen vorstellbar, wo Geräte oder Personen eingeblendet werden, die in der Realität nicht existieren.

Eine typische technische Anwendung ist die Steuerung von Montagearbeiten durch das sukzessive Einblenden des nächsten zu montierenden Bauteils. Auch in der Medizin gibt es Anwendungen in der Form, dass einem Chirurgen Daten, die von Tomographie- oder Ultraschallgeräten gewonnen wurden, während einer Operation eingeblendet werden. Das von Google vor kurzem vorgestellte Produkt mit dem Namen Google Glass besitzt limitierte AR-Funktionen. Auch Smartphone können entsprechend eingesetzt werden.

Lob der Computergrafik

Generell kann AR dazu verwandt werden, geometrische Planungsdaten mit der geometrischen Realität zu vergleichen und beide aufeinander abzustimmen. Wie Jose Encarnaçao in einem Interview in diesem Blog schon vor Jahren sagte, ist der Mensch ein ‚Augentier‘. Deshalb, so fährt er fort:.

… werden Visualisierung sowie interaktive, multimediale und multimodale Kommunikation immer wichtiger, wenn es um Benutzbarkeit, Bedienbarkeit und Akzeptanz von rechner-unterstützten Leistungen und Dienstleistungen in unserer vernetzten, allgegenwärtigen Informationsgesellschaft geht. Dieses Arbeitsgebiet ist deshalb eine Basistechnologie und ein Ermöglicher (engl. ‚enabler‘) für viele Erfindungen, sowie für neue Entwicklungen und neue Anwendungen, die uns auch für die Zukunft bevorstehen.

Außer der visuellen Wahrnehmung besitzt der Mensch noch den akustischen und haptischen Sinn, mit denen Informatikanwendungen ebenfalls interagieren können. Insgesamt erfolgt jedoch über 70% unserer Interaktion mit der Umwelt durch visuelle Kommunikation.

Zusätzliche Referenz 
  1. 1. Lanier, J.: You Are Not a Gadget. New York: Knopf  2010. Rezension von A. Endres im Informatik-Spektrum 33,3 (2010), 332-333 

Mittwoch, 4. März 2015

Wird die Informatik trivial und bedeutungslos?

Offensichtlich leiden auch Informatikerinnen und Informatiker manchmal an Selbstzweifeln. Selbstzweifel sind an sich nichts Schlechtes. Sie bremsen den Dünkel und reduzieren die Gefahr der Selbstüberschätzung. Warum soll das ein Privileg der Physiker sein? Statt immer nur über die Not der Physik zu schreiben, will ich heute das mir an sich näher liegende Thema aufgreifen. Ich muss gestehen, dass ich die in der Überschrift zum Ausdruck kommende Angst einiger Kollegen bisher nicht allzu ernst nahm.

Über die  in Deutschland geführte Diskussion erfuhr ich zuerst durch einen Bericht des Kollegen Wedekind, der an dem GI-Fellow-Treffen 2013 in Koblenz teilgenommen hatte. Der Karlsruher Kollege und frühere GI-Präsident Roland Vollmar habe dort vorgetragen, dass das Fach Informatik an Hochschulen bald überflüssig sei. Nach der ‚Vollmarschen These‘ würde die Ausbildung in Informatik immer mehr von andern Fächern absorbiert. Das gelte sowohl für Hochschulen wie für die Gymnasien. Eine zweite Art der Diskussion ist eigentlich viel älter. Sie wurde von den beiden Aachner Kollegen Manfred Nagl und Otto Spaniol in einem Beitrag des letzten Informatik-Spektrums [1] wieder aufgegriffen. Diese beiden Informatik-Veteranen wurden durch den Vortrag einer in der Wirtschaft tätigen Kollegin dazu bewogen, sich mit den Ideen von Nicholas Carr auseinanderzusetzen. Im Folgenden möchte ich beide Thesen, die Vollmarsche und die Carrsche behandeln, und zwar in der Reihenfolge zuerst Carr, dann Vollmar.

Carrsche These

Nick Carrs 12 Jahre alte These ‚IT doesn't matter‘ [4] wird seit 2003 auch in Deutschland diskutiert. Sie betrifft zwar nicht primär die Ausbildung, sondern vor allem die betriebliche Rolle der Informatik. Das wirkt sich natürlich auch auf den Stellenwert der Ausbildung aus. Carr brachte seine These zuerst als affirmative Aussage, ehe er sie in Buchform darstellte, dann jedoch als Fragestellung ‚Does IT matter?‘ Nach anfänglicher Unruhe in den USA, hat sich dort diese Diskussion längst erledigt. Es wird heute angenommen, dass Carr mit seiner These in der Post-Blasen-Depression befangen war. Außerdem machte er Vergleiche etwa zur Elektrizität, die für die Informatik nicht ganz zutreffend sind. Wer die Entwicklung unseres Faches in den letzten 12 Jahren verfolgt hat, weiß, dass die Weiterentwicklung recht dynamisch war und ihre Bedeutung für Wirtschaft und Gesellschaft stark zunahm. Nick Carr hatte mit seiner Vorhersage leider danebengegriffen.

In dem Papier der Aachner Kollegen wird auf einen Beitrag der GI-Vizepräsidentin Simone Rehm [3] Bezug genommen, in dem sie beleuchtet, wie sehr sich ihre Aufgaben als Leiterin einer Informatik-Abteilung laufend ändern. Wegen der Verfügbarkeit von fortgeschrittener Technik im privaten Besitz gerät die betriebliche Informatik in die Defensive. Trotzdem wird von ihr fachliche Führung erwartet. Umso mehr überrascht es, dass Carrs These jetzt plötzlich wieder auftaucht und so ausführlich behandelt wird. Getreu Hegelscher Dialektik wird die Abhandlung in These, Antithese und Synthese gegliedert. Zur These wird noch hinzugefügt, dass auch Deutschlands Vorzeigebranche, der Automobilbau, irgendwann bedeutungslos werden wird. Wie weit das helfen soll, die Situation in der Informatik zu erklären, ist mir ein Rätsel. Die Antithese lautet: Informatik ist wichtiger denn je. Das ist an sich nicht falsch. In dem Zusammenhang wirkt die Aussage jedoch als völlig aus der Luft gegriffen, d.h. ziemlich unbegründet. Was als Synthese angeboten wird, ist für mich relativ enttäuschend. Es wird keinerlei neue Antwort gegeben, keine einzige konstruktive Maßnahme beschrieben, sondern nur ein vager Appell formuliert. Darin wird gefordert, mehr in Bildung zu investieren. Nichts ist in Deutschland irreführender als nach noch höheren Bildungsanstrengungen zu rufen. Jeder, der das tut – und das sind nicht wenige – verbindet damit nämlich etwas anderes. Im Zweifelsfall ist es mehr Latein und Griechisch. Es ist noch gar nicht lange her, als der Englischlehrer Dietrich Schwanitz uns allen klarzumachen versuchte, was wir als Bildung zu verstehen hätten. Oder anders ausgedrückt: Das Wort 'Bildung' ist zu abstrakt, um noch etwas Sinnvolles auszusagen.

Zum Informatikverständnis in Deutschland

Als großes Problem der Informatik wird empfunden, dass bei uns Informatik nicht in eigenen Produkten zu erkennen sei. Sie stecke nur überall drin. Die einzige Ausnahme seien die ERP-Systeme der Firma SAP. Leider müssten in Deutschland die meisten Informatik-Absolventen zu Unterrnehmen gehen, die nicht als Informatikunternehmen angesehen werden. Wie ich in einem früheren Beitrag schon vor Jahren nachgewiesen habe, erfolgt dies fast immer gegen den Willen und den Wunsch der Absolventen. Warum dies so ist, und ob dieses Schicksal unabwendbar ist, ist eine Frage, die mich schon länger beschäftigt.

Wer die Situation in der Informatik mit Industrien vergleicht, bei denen Produktionskosten dadurch reduziert werden, indem die Produktion immer in das Land mit den niedrigsten Lohnkosten verlegt wird, verkennt völlig den Charakter der Informatik. Die Software-Industrie unterliegt andern Gesetzen und Geschäftsmodellen als die traditionelle Industrie. Unsere Hardware-Industrie ist völlig von der Software abhängig und wird zumindest von ihr getrieben. Die beste Software kommt typischerweise daher, wo die Lohnkosten am höchsten sind. Sie erfordert Kreativität und nicht Produktivität. Es kommt auf die Art und die Zahl von Erfindungen an und nicht auf die Programmzeilen pro Stunde. Das letztere ist eine anfangs zwar übliche, heute aber völlig überholte Sicht. Ich kann dies nicht oft genug sagen.

Ein Entwickler muss überlegen, was es ist, was er oder seine Bekannten haben möchten. Seit Jahrzehnten muss dabei nicht nur an alle Unternehmen einer Branche, sondern auch an die Frau oder den Halbstarken auf der Straße gedacht werden, und das überall auf der Welt. Wer die beste Antwort hat und diese auch noch schnell in den Markt bringen kann, gewinnt. Alle zweiten Sieger gehen leer aus. Diese Lektion kann jeder lernen, der will. Er muss nur bereit sein, erfolgreiche Unternehmen der letzten 20 Jahre zu studieren. Dass das Silicon Valley eine Art von Durchlauferhitzer für gute Informatik-Ideen ist, pfeifen längst alle Spatzen von den Dächern. Christoph Keese, ein Vorstandsmitglied des Axel-Springer-Verlags, den ich in diesem Blog zu Wort kommen ließ, ist nur einer der vielen Autoren, der dieses Phänomen ausführlich erklärt. Zufällig brachte dasselbe Heft des Informatik-Spektrums, in dem Nagl und Spaniol sich äußerten, einen Beitrag der Kollegin Kirstin Kohler [2], die gerade ein halbes Jahr an der Stanford University verbracht hatte. Sie monierte, dass bei uns Technik zu wenig geschätzt würde und dass Software als Produkt in der Lehre nicht vorkomme. Dem ist hinzuzufügen, dass Software als Produkt ein viel zu enges Konzept ist. Heute machen Dienste, die per Internet angeboten werden, mindestens so viel von sich reden wie Produkte.

Dass im Hochlohnland Deutschland noch immer Individual-Software eine große Rolle spielt, ist schlicht ein Anachronismus. Informatiker, die sich dafür nicht zu schade sind, sollten von der Fachgemeinde an den Pranger gestellt werden. Nur wer Standard-Software entwickelt, trägt dazu bei, dass es unserem Land gut geht und dass unsere Branche eine Chance hat zu überleben. Mit Standard-Software sind hier Produkte oder Dienstleistungen gemeint, die so konzipiert sind, dass sie potentiell von allen Unternehmen oder allen Menschen benutzt werden können, die ähnliche Wünsche oder Bedürfnisse haben. Andere Software zu erstellen, ist eine unverantwortliche Verschwendung wertvoller menschlicher Fähigkeiten. Dass für die betroffenen Informatikerinnen und Informatiker ihr Ansehen und ihre Vergütung zu wünschen übrig lässt, ist die Folge davon, dass das Ergebnis ihrer Arbeit einen zu geringen Wert hat.

Vollmarsche These

Da ich Roland Vollmar nicht selbst gehört hatte, zitiere ich aus einer E-Mail des Kollegen Hartmut Wedekind vom 17.9.2013:

Herr Vollmar meinte u.a. in fünf Jahren sei die GI am Ende, weil die Informatik als Fach am Ende sei. Der Mitgliederschwund wurde beklagt. Informatik sei in fünf Jahren in alle Fächer hinein evaporiert. Es gibt aber schon eine Archäologie-Informatik. Donnerwetter! Was die auch alle heute unter Informatik verstehen. Informatik ist kaum noch eine Wissenschaft. Informatik ist ein „social event“ oder „Informatik ist ein Bewusstsein“. … Vollmar meinte, wir seien zu erfolgreich gewesen. „Der Erfolgreiche  hat seine Schuldigkeit getan, der Erfolgreiche kann gehen“ (frei nach Schiller, Die Räuber)

Meine damalige Antwort war – vielleicht etwas zu wenig reflektiert – aber nicht ganz unzutreffend:

Nicht die Informatik ist überflüssig, sondern es sind diejenigen Lehrstuhlinhaber, die die Informatik selbst nicht weiterbringen. sondern die immer noch meinen, man müsste Nutzern zu allererst 'richtiges Denken' beibringen, ehe sie Computer anfassen dürfen.

In Wirklichkeit geht es mal wieder um die Frage. ob die Informatik ein Fach mit eigenem Kern ist, den zu beherrschen nicht jeder Durchschnittsschüler oder Student in der Lage ist. Wenn ein Studienfach als trivial angesehen wird, dann zieht es auch keinen begabten Nachwuchs mehr an. Trivial heißt nämlich alltäglich, seicht, nichts Auffallendes mehr. Gelangen (alternde) Informatik-Professoren zu einer solchen Auffassung über ihr Fach, dann ist das vermutlich ein Zeichen von Realitätsverlust. Sie haben den Anschluss verloren an das, was auf ihrem Fachgebiet geschieht. Es tut mir leid, wenn das etwas hart klingt.

Was die Informatik in Schulen betrifft, ist die in andern europäischen Ländern eingeführte Zweiteilung zwischen Allgemeinbildung (engl. digital literacy) und Fachbildung (engl. computer science) auch bei uns überfällig. Man sollte endlich trennen zwischen Nutzer- und Entwicklerkompetenz. Es kann sein, dass die Grenze zwischen beiden Aufgaben sich im Laufe der Zeit verschiebt. Natürlich wäre es schön, wenn möglichst viele junge Menschen ein Gefühl dafür bekämen, was mit ‚informatischem Denken‘ (engl. computational thinking) gemeint ist. Statt auf den Unterschied von Theorie und Praxis abzuheben, wäre es sinnvoller in der beruflichen Ausbildung den Unterschied zwischen originellen Ideen und schemenhafter Anwendung alten Wissens zu lehren. Gymnasien mag es gestattet sein, eine Ausbildung zum Konsumenten zu fördern. Die Hochschulen sollten sich darauf konzentrieren, das Erkennen von Automatisierungsmöglichkeiten zu lehren sowie deren Umsetzung in nutzbare Lösungen.

Dass Präsident Obama junge Amerikaner dazu überredet, programmieren zu lernen, mag einigen von uns albern vorkommen. Einerseits halten wir uns für klüger, andererseits traut sich niemand zu unserer Kanzlerin vorzuschlagen, für welche Programmiersprache sie bei Schulbesuchen werben sollte. Ob ein Präsidiumsarbeitskreis der Gesellschaft für Informatik (GI) in der Lage wäre, diese Frage zu entscheiden, ist fraglich.

Zusammenfassung

Es scheint immer noch zu wenig Wissen darüber zu geben, welcher Art das Geschäft ist, das wir als Informatik (oder IT) bezeichnen. Wem das Wort Geschäft missfällt, darf auch Berufsfeld oder Fachgebiet sagen. Wenn wir uns bezüglich seiner Grundlagen, Erfolgsfaktoren und Risiken nicht stärker austauschen, besteht die Gefahr, dass junge Menschen schon in der Ausbildung fehlgeleitet werden. Dass unsere Wirtschaft dadurch Schaden erleidet, ist mehr als nur ein Nebeneffekt.

Zusätzliche Referenzen 
  1. Nagl. M., Spaniol, O.: Wird Informatik zum Allgemeingut und bedeutungslos? Informatik Spektrum 38,1 (2015), 31-36
  2. Kohler, K.: Nerds als Helden – Ein wenig mehr Silicon Valley in Deutschland wäre schön! ibidem, 37-40
  3. Rehm, S.: Neulich in der Kantine. Informatik Spektrum 35,3 (2012), 223-224
  4. Carr, N. G.: IT doesn’t matter. Harvard Business Review, Mai 2003, 5-12