Dienstag, 30. Dezember 2014

Otthein Herzog über Computerlinguistik, Bremer Universitäten und acatech

Otthein Herzog (Jahrgang 1944) ist seit 2010 Professor of Visual Information Technologies an der Jacobs University Bremen. Von 1993-2009 war er Professor für Künstliche Intelligenz an der Universität Bremen, seit 2009 hat er dort eine Forschungsprofessur inne. Er war Sprecher des TZI - Technologie-Zentrums Informatik und Informationstechnik, des SFB 637 “Selbststeuerung logistischer Prozesse” und des “Mobile Research Center”. Seit 1998 ist er Affiliate Professor am Machine Learning and Inference Laboratory, George Mason University, Fairfax, VA, USA. 

Nach dem Studium in Tübingen, Stuttgart, Karlsruhe und Bonn wurde er 1976 in Informatik an der Universität Dortmund promoviert. Von 1977 bis 1993 war er Mitarbeiter der IBM Deutschland in der Software-Entwicklung und Forschung; 1989 auch Gründungsmitglied des SFB “Grundlagen der Computerlinguistik” der Universitäten Stuttgart, Tübingen und der IBM. Seine Forschungsinteressen sind: semantische Analyse von Bildern und Videos, mobile Anwendungen in der Arbeitswelt, und Multi-Agenten-Systeme für die Produktion und Logistik. Er ist gewähltes Mitglied der nationalen Deutschen Akademie der Technikwissenschaften, Fellow der Gesellschaft für Informatik, wissenschaftlicher Beirat in mehreren Institutionen und hat mehr als 240 referierte wissenschaftliche Arbeiten publiziert.
 

Bertal Dresen (BD): In diesem Interview möchte ich am Anfang kurz in Ihre berufliche Vergangenheit zurückgehen. Sie haben später andern Themen Ihre Aufmerksamkeit gewidmet. Ich werde auf sie zurückkommen. Beginnen möchte ich mit einer Definition für Computerlinguistik (CL): Sie erforscht die maschinelle Verarbeitung natürlicher Sprachen. Sie erarbeitet die theoretischen Grundlagen der Darstellung, Erkennung und Erzeugung gesprochener und geschriebener Sprache durch Maschinen. Was sind heute die markantesten und erfolgreichsten Anwendungen? Ich meine im täglichen Leben, nicht im Labor. Worin sehen Sie heute die wichtigsten und schwierigsten Fragestellungen? 

Otthein Herzog (OH): Ohne Zweifel hat die Spracherkennung mit der anschließenden semantischen Interpretation des Inputs (z. B. Siri auf dem iPhone), aber mit eingeschränktem Vokabular im Auto einen entscheidenden Durchbruch erzielt. Die Ergebnisse der Computerlinguistik (einschließlich Semantik-Methoden) sind entscheidend für die Interpretation der „unstrukturierten Daten“, also der Texte im Internet, um z. B. die Suche effizient und effektiv zu machen. Ohne Computerlinguistik ist das „Knowledge Mining“ im Internet nicht möglich. Dennoch: die wichtigsten und schwierigsten Fragestellungen sind m. E. heute immer noch, Texte, Bilder und Videos im Zusammenhang semantisch im richtigen Kontext zu interpretieren. 

BD: Hat nicht die Leistungssteigerung von Rechnern das Gebiet in letzter Zeit enorm angetrieben? Ein Lexikon speichern kann heute jedes Mobiltelefon, sogar in mehreren Sprachen gleichzeitig. Welcher Teil der Problemlösung ist nur eine Frage der Speicher- oder Rechnerkapazität? Wo kommt es auf neue Algorithmen oder Erfindungen an? Wie sehen Sie die ‚Arbeitsteilung‘ zwischen Linguisten und Informatikern? 

OH: Problemlösungen für Sprachverarbeitung (und Bilder/Videos) werden immer eine große Speicher- und Rechenkapazität benötigen – und je mehr, desto besser. Für die semantische Analyse in einem richtigen Kontext werden auch neue Algorithmen für die Analyse von Korpora und für das maschinelle Lernen benötigt, für die InformatikerInnen wesentliche Beiträge leisten können: es werden effiziente und effektive Algorithmen benötigt! 

BD: Die IBM Deutschland war in der Zeit, als Sie dort tätig waren, sehr aktiv auf dem CL-Gebiet, zuerst in Heidelberg und später in Stuttgart. Das Projekt LILOG verbinde nicht nur ich mit Ihrem Namen. Es gibt eine ausgezeichnete Dokumentation über das Projekt. Dass ein Dutzend Mitarbeiter anschließend eine Hochschul-Karriere machten ist bekannt. Würden Sie – trotzdem  ̶  für unsere Leser die Hauptziele des Projekts umreißen. Wieweit wurden diese Ziele erreicht?  

OH: Im Wissenschaftlichen Zentrum der IBM in Heidelberg (WZH) hatte die Computerlinguistik schon sehr früh einen herausragenden wissenschaftlichen Schwerpunkt, der allerdings bei dem groß angelegten Projekt „Operationalisierung des Fahrerfluchtparagraphen“ auf seine Grenzen stieß. Es zeigte sich, dass die semantische Komponente für die Auslegung der Gesetzestexte und der zahlreichen Urteile der schwierigste Teil des Projektes war. 

Das LILOG-Projekt (LILOG war die Kurzform für „Linguistic and Logical Methods and Tools for the Computational Understanding of German“) beruht auf einem Vorschlag, der 1985 vom Albrecht Blaser, dem damaligen Leiter des WZH, an Karl Ganzhorn, seinen Bereichsleiter bei IBM, herangetragen worden war. Er sollte diese Lücke schließen. Ich zitiere aus einer meiner ersten LILOG-Folien, die der Unternehmensleitung der IBM Deutschland präsentiert wurde. Folgende technologische Ziele wurden gesehen:
 
  • Teil 1: Entwicklung einer vollständigen Datenbank für linguistisches Wissen über die deutsche Sprache mit (linguistischem) Wörterbuch, Thesaurus (Wortbedeutungen), Grammatik mit Funktionen und Algorithmen für Update, Abfragen und automatische Manipulation
  • Teil 2: Vorantreiben der Theorie, um Algorithmen zur Dialog-Analyse und zur Deduktion entwickeln zu können, die für die Gewinnung von Wissen und für logisches Schließen in realistisch großen Anwendungen brauchbar sind.

Zur Zielerreichung des LILOG-Projekts: Für den Teil 1 ist festzuhalten: Es wurden sogar zwei Grammatiken zusammen mit den entsprechenden Wörterbüchern und einem Lexikon für das Deutsche entwickelt, je eine für die Analyse und die Generierung von deutschen Sätzen, die für „normale“, also nicht-künstlerische Texte aus zwei Anwendungsgebieten („Wanderung“ und „Stadtinformationssystem Düsseldorf“) ziemlich brauchbar waren. 

Für den Teil 2 gilt, dass er noch mehr als Teil 1 von der verfügbaren Computertechnologie abhing. Aber auch hier (LILOG wurde in Prolog geschrieben!) wurden wesentliche Fortschritte in Theorie und praktischen Anwendungen erreicht: Beweiser für die Prädikatenlogik erster Stufe, Wissensrepräsentation mittels Ontologien-Technologie mit getypten Verarbeitungsmechanismen, Objekt-orientierte Datenbank. Darüber hinaus wurden in dieser Präsentation auch strategische Ziele benannt:

  • Das Projekt ist ein erster Schritt in eine strategische Richtung: Aufbau von Erfahrung;  Neue SW-Technologie wird vorangetrieben und in der IBM Deutschland verfügbar
  • Kurzfristige Auswirkungen/Nutzen:  Das Marktpotential mehr traditioneller Anwendungen wird vergrößert: Textverarbeitung (Büro-Anwendungen); Natürliche Sprachen als Schnittstellen (z.B. zu Datenbanken); Dokumentation;  Beschleunigte Marktdurchdringung für Expertensysteme (zusätzlicher HW-Umsatz)
  • Die akademische/wissenschaftliche Welt wird schneller erschlossen

Die genannten kurzfristigen Ziele konnten nur zum Teil erfüllt werden, auch weil sich die Strategie der IBM änderte. So wurde z. B. die Textverarbeitung aufgegeben. Was aber die langfristigen Ziele betrifft, war das Projekt sehr erfolgreich: LILOG war die Grundlage für viele Projekte mit wissensbasierten Komponenten im WZH, die zusammen mit Kunden durchgeführt wurden. Dadurch konnte die IBM Deutschland auch ihren Ruf als innovative Firma in Industrie und Wissenschaft verbessern. 

Nach der Auflösung des WZH wechselte der IBM-Kern des LILOG-Teams fast geschlossen in das Böblinger Labor, wo ich 1993 gerade noch vor meinem Ruf an die Universität Bremen ein „Data Mining“ Projekt in den USA akquiriert hatte, das den Amerikanern zu risikoreich war. Das seitdem in Böblingen entwickelte und außerordentlich erfolgreiche IBM Data Mining-Produkt wäre ohne die in LILOG gewonnenen Erfahrungen nicht denkbar und noch weniger implementierbar gewesen. 

BD: Wie sehen sie heute die technische und kommerzielle Langzeitwirkung dieses Projekts in Deutschland? Hat es Deutschland im Weltmarkt (inklusive der Wissenschaft) nach vorne gebracht? Welche Ergebnisse (Erfindungen, Algorithmen, Prototypen) aus LILOG bilden die Grundlage heutiger Produkte, sei es bei IBM oder anderswo? 

OH: Das LILOG-Projekt hat die Operationalisierung der Analyse und Generierung natürlicher Sprache weltweit in den Blickpunkt gerückt (leider nicht bei der IBM, obwohl schon 1993 das semantische Information Retrieval mit dem IBM Search und Thesaurus Manager von mir in Sindelfingen entwickelt und in den Markt gebracht worden war). Microsoft hatte das erkannt und die Computerlinguistik-Forscher aus dem IBM Labor in Yorktown Heights abgeworben, die dann mit der Überprüfung von Grammatik und der Wortkorrektur in Word und auch mit der Volltextsuche in Windows erfolgreich waren. In Deutschland selbst hat das (damalige) BMBF einige sehr große Projekte auf diesem Gebiet gefördert, die mit mäßigen Erfolgen abschlossen, sicherlich aber auch zur Gründung einiger Firmen geführt haben, die sich mit der Verarbeitung natürlicher Sprache befassten (z. T. durch ehemalige LILOG-Mitarbeiter wie Hans Uszkoreit).

Die entscheidende Wirkung von LILOG dürfte darin bestanden haben, dass durch die LILOG-Prototypen gezeigt wurde, dass solche Systeme mit natürlich-sprachlichen Schnittstellen und einer ausgefeilten Wissensrepräsentation auf interdisziplinärer Grundlage überhaupt möglich waren. Es wäre sicherlich zu viel behauptet, LILOG als „Urvater“ der modernen Internet-Suche oder des semantischen Information Retrieval zu bezeichnen, aber mindestens hat LILOG diese Systeme denkbar gemacht. Darüber hinaus stellten Teile der erarbeiteten LILOG-Technologien wertvolle Grundlagen für kommerzielle Produkte dar (z. B. IBM Search und Thesaurus Manager, IBM Data Mining). 

BD: Mehrere Kollegen von uns bei IBM, besonders diejenigen mit einer Hardware-Vergangenheit, hatten Schwierigkeiten den Sinn von LILOG und ähnlichen CL-Projekten des WZH einzusehen. Sie stellten nicht nur deren Wissenschaftlichkeit in Frage, sondern auch ihre wirtschaftliche Relevanz. Einige hielten die natürlichsprachige Datenbankabfrage für Spielerei. Können Sie das nachvollziehen? Ist Ihnen diese Einstellung auch außerhalb IBMs begegnet? Hat sich in den letzten Jahrzehnten eine Veränderung der Einstellungen eingestellt? 

OH: Aus meinen Bemerkungen in den vorherigen Abschnitten wird deutlich, dass ich die Software-Aspekte von LILOG als Grundlage für die weitere Entwicklung noch heute für besonders wichtig halte. Ich halte es immer noch für sehr bedauerlich, dass die IBM Deutschland dieses ganze Gebiet trotz des immensen Vorsprungs vor den Mitbewerbern sehr schnell wieder aufgegeben hat. Schon mit dem Aufkommen des „World Wide Web“ 1995 hätte IBM eine gute Suchfunktion auf der eigenen Technologiebasis entwickeln können (die ich damals nachweislich empfohlen hatte)!

BD: Wie Sie wissen, hat die Bundesregierung sehr viel Geld auf diesem Gebiet ausgegeben. Stichwort Verbmobil. Wie sehen Sie den Ertrag dieser Investition? Hat die Industrie es versäumt, das Marktpotential zu nutzen? 

OH: Diese vom BMBF geförderten Großprojekte hatten sicherlich als Ergebnis, dass das DFKI wuchs und gedieh und auch noch heute sehr erfolgreich ist. Kommerziell litten sie (wie viele BMBF-Projekte) unter der mangelnden Bereitschaft der großen Firmen, die erarbeiteten Ergebnisse in Produkte umzusetzen: der Schritt von der Invention zur Innovation wurde nicht oder viel zu selten unternommen. 

BD: Die CL galt früher als Teilgebiet oder aber nahe verwandt mit der Künstlichen Intelligenz (abgekürzt KI). Nach einem fulminanten Start am MIT (McCarthy, Minsky) und bei IBM (Rochester, Samuel) brach in den USA der so genannte KI-Winter aus. Gemeint ist, dass sowohl das industrielle Interesse als auch die öffentlich Förderung wegfielen. Auf fast wundersame Weise blieb dieser KI-Winter Deutschland erspart. Können Sie das erklären? Hat Deutschland Vorteile daraus gewonnen, jetzt wo das Wort KI wieder in aller Munde ist? 

OH: Dieser KI-Winter blieb Deutschland erspart, weil sich die deutsche KI seit Anfang der 90er Jahre stark auf Anwendungen von wissensbasierten, also KI-Technologien konzentriert hatte. Dadurch wurde der potenzielle Nutzen nie wirklich in Frage gestellt. Und vielleicht hat die deutsche KI auch nicht solche vollmundigen Versprechen gemacht wie die amerikanischen Forscher… 

BD: Manche Leute betrachten den Ausdruck KI als ein Sammelname für riskante Forschung. Bricht ein Gebiet aus, wie z.B. die Robotik, lässt die das Prädikat KI fallen. Ist dies das generelle Schicksal der KI? Ist der Name nicht auch dadurch belastet, dass natürliche Intelligenz schwer zu definieren ist? 

OH: Alle Forschung ist riskant, nicht nur die KI-Forschung, sonst wäre es keine Forschung. Sicher war aber die KI-Forschung manchmal sehr riskant, weil man sich Ziele setzte, die schon aufgrund der verfügbaren Hard- und Software kaum erreichbar waren. Andererseits: wenn man heute Artikel in den frühen Ausgaben des IBM System Journals aus den 50er Jahren des letzten Jahrhunderts liest, drängt sich schnell auf, dass große Versprechen nicht nur von der KI gemacht wurden. Möglicherweise ist das eine Falle, in die jede neue Wissenschaft leicht gehen kann. 

BD: Sie haben bzw. hatten einen Lehrstuhl für Künstliche Intelligenz inne. Für welches Ihrer vielen Projekte hatten Sie den Eindruck, dass hier die Analogie zum  menschlichen Verstand nicht nur hilfreich, sondern bestimmend war? 

OH: In keinem meiner vielen Projekte habe ich je eine Analogie zum menschlichen Verstand auch nur am Rande erwähnt. Jedem, der sich ernsthaft mit der Materie befasst, wird schnell klar, dass die Lücke zwischen mit vertretbarem Aufwand maschinell erreichbaren Zielen und dem „Computer zwischen den Ohren“ für universelle Anwendungen immer noch riesig ist, auch wenn man das sehr fortgeschrittene IBM System „Watson“ mit in das Kalkül einbezieht. 

BD: Ohne jetzt zu tief einsteigen zu wollen: die Frage, wie verhält sich Wissen und Sprache ist für mich sehr interessant. Wie sehen Sie das? 

OH: Man muss hier sicherlich zwei Dinge unterscheiden: man benötigt erworbenes Wissen, um Sprache zu beherrschen, und viele Wissensgebiete sind nur aufgrund von Sprache (von natürlicher Sprache bis hin zu Programmiersprachen) kommunizierbar. Überspitzt könnte man sagen: Ohne Sprache kein bewusstes Wissen, und kein bewusstes Wissen ohne Sprache. 

BD: Lange Jahre waren Sie an der Universität Bremen. Sie gilt als etwas links-lastige Massenuniversität. Jetzt gehören Sie zur Jacobs Universität, einer kleinen privaten Hochschule. Können Sie die Unterschiede kurz beschreiben, und zwar sowohl aus Sicht der Professoren als auch aus Sicht der Studenten. 

OH: Leider ist das Vorurteil über die Universität Bremen als „rote Kaderschmiede“ kaum auszurotten. Mit ihren 20.000 Studierenden, starken Ingenieur-, Meeres- und Sozialwissenschaften gehört sie inzwischen zu den elf deutschen Exzellenz-Universitäten, leidet aber zur Zeit deutlich unter den Sparmaßnahmen des Landes Bremen. Die „private“ Jacobs University Bremen hat im Gegensatz zur Universität Bremen die Möglichkeit, sich ihre 1.400 Studierenden selbst auszuwählen. 

Aus der Sicht eines Professors an der Jacobs University ist es eine besondere Herausforderung, die multikulturellen und intellektuellen Herausforderungen der Studierenden aus mehr als 110 Ländern aufzunehmen und einen Großteil der Arbeitszeit der interdisziplinären Lehre zu widmen. Der Erfolg wird klar gekennzeichnet dadurch, dass die Studierenden wesentlich besser motiviert sind für Studienleistungen, und dass 95% der Studierenden eines Jahrgangs nach drei Jahren den Bachelor-Abschluss erwerben! Aus der Sicht der Studierenden, die bis zum Bachelor-Abschluss auf dem Campus wohnen und (fast ausschließlich) leben, ist die hohe Arbeitsbelastung, auch durch die Interdisziplinarität des Lehrangebots sicherlich eine Herausforderung neben dem Lernen über andere Kulturen im täglichen Miteinander und dem akademischen Konkurrenzkampf.

BD: Sie haben das TZI an der Universität Bremen gegründet und über lange Jahre geleitet. Warum, und was wurde erreicht? 

OH: Zusammen mit einigen KollegInnen habe ich das TZI – Technologie-Zentrum Informatik als ein ‚In-Institut‘ der Universität Bremen im Mai 1995 gegründet, knapp zwei Jahre nach dem Antritt meiner KI-Professur in Bremen. Es wuchs sehr schnell und hatte im Jahr 2009, als ich es an meinen Nachfolger übergab, 160 MitarbeiterInnen und einen Etat von über 7 Mio. €, davon 80% Drittmittel. Wir gründeten das TZI aus der Einsicht heraus, dass
  • neben Forschung und Lehre der Technologie-Transfer auch zu den Aufgaben einer Universität gehört,
  • die Industrie durch den Einsatz von mehr und besserer Software bessere Produkte anbieten kann,
  • einzelne Arbeitsgruppen keine Gesamtlösungen anbieten können und deshalb eine institutionelle Integration mit einem „lean management“ sinnvoll ist,
  • die Forschung durch das Aufgreifen von Problemen aus der Praxis nur gewinnen kann
Diese Strategie führte zu einem erfolgreichen Aufbau und nachhaltigen Wirken des TZI über nun fast zwanzig Jahre hin, eine Zeitraum, in dem sich das Institut einige Male „neu erfand“ auf dem Hintergrund von neu verfügbaren Technologien. Weder hat die Forschung in dieser Zeit unter dem Transfer-Gedanken gelitten, noch hat der Transfer mit der Notwendigkeit von Akquisition die Forschung in den Hintergrund gedrängt.. 

BD: Sie sind in den letzten Jahren bei der acatech engagiert, der Akademie der Technikwissenschaften. Was kann oder wird sich aufgrund ihrer Tätigkeit in Deutschland ändern als Standort für Forschung, Wirtschaft und Berufe mit technischer Ausrichtung?

OH: acatech als Akademie der Technikwissenschaften ist im Unterschied zu anderen wissenschaftlichen Akademien über den acatech-Senat stark mit der Industrie in Deutschland verbunden. In der relativ kurzen Zeit ihres Bestehens ist es acatech aufgrund der besonderen Mitgliederstruktur gelungen, für alle denkbaren Technik-Themen interdisziplinäre Kompetenzen einzusetzen und fundierte Empfehlungen auf den verschiedensten Technik-Gebieten an die Regierung auszusprechen. So wird z.B. der Innovationsdialog der Kanzlerin mit Wirtschaft und Wissenschaft von einem der beiden acatech-Präsidenten, Henning Kagermann organisiert. acatech hat z.B. schon sehr früh Empfehlungen für die Energiewende erarbeitet und war maßgeblich zusammen mit der Forschungsunion beteiligt an der Entwicklung der Programme des BMBF und des BMWi zu „Industrie 4.0“ und „Smart Service Welt“ – beides wegweisende Strategien für die deutsche Industrie. Insofern leistet acatech wertvolle Beiträge, um dazu beizutragen, dass aus Ideen Innovationen und aus Innovationen Chancen auf Wohlstand in Deutschland erwachsen.

BD: Herr Herzog, haben Sie vielen Dank für dieses ausführliche und interessante Interview. Es ist nicht anzunehmen, dass es in Ihrem Ruhestand an Aufgaben mangelt.

Dienstag, 23. Dezember 2014

PEGIDA und die Polit-Götter

Das nachfolgend zitierte Schreiben schickte Hartmut Wedekind heute an den Sächsischen Landesbischof Bohl, den er gestern im Fernsehen gesehen hatte. 

An den Landesbischof der Landeskirche Sachsens

Jochen Bohl 

Sehr geehrter Herr Bischof Bohl, 

Ich bin der Überzeugung, dass sich auch die Kirchen  das Problem PEGIDA zu leicht machen. Ein einfaches PEGIDA-Beschimpfen ist darüber hinaus auch geistig wenig anspruchsvoll und wird von jedermann heute leicht aus der Tasche gezogen. Der Schuss geht dann auch, wie zu erwarten, nach hinten los. Die Zahlen steigen. 

Das Flüchtlings-und Asylantenproblem ist primär ein europäisches Problem, und dann in zweiter Linie ein nationales. Wenn Sie das bestreiten, dann brauche ich gar nicht weiter zu reden. Bedenken Sie, dass wir keine für die ganze EU geltende Flüchtlings- und Asylantenordnung haben, weil die Politiker in Straßburg unfähig sind, eine solche zu generieren. Hätten wir eine, wäre es zweifelhaft, ob sie überhaupt eingehalten wird. Eine Ordnung mit Wirkung und einem rationalen Kern würde PEGIDA den Wind aus den Segeln nehmen. Schauen Sie auf die Maastricht-Verträge mit ihren Defizit- und Verschuldungsgrenzen, über die man heute nur milde lächelt.  Schauen Sie z.B. auf die Zuwanderungsregel, die besagt, dass  Flüchtlinge zunächst in dem Aufnahmeland registriert werden müssen. Flüchtlinge werden wie der Schwarze Peter herumgeschoben und man streitet sich auch in Deutschland heftig um die Kosten. Das sind „bashende“ Heuchler, die als Typ in der Bibel häufig vorkommen. „Phoney guys“ sagt man in Amerika, fast auch im Deutschen  selbsterklärend. „Wie fangen wir das an?“, heißt eine Frage  in einem berühmten Text. Die gereimte  Antwort:“ Wir stellen die Regel auf und halten uns dran“. 

Wo man hinschaut, eine Europäische Ordnung in großen, wirklich essentiellen Fragen gibt es nicht. Europa ist etwas für Kleinkram, z.B. Mautgerechtigkeit. Europa ist zentral-ordnungspolitisch eine Trauerveranstaltung und ein Versager und kein Licht der Aufklärung mehr, sondern ein Licht der Polit-Götter. 

Jetzt kommt es, knüppeldick für die einfachen Beschimpfer und Polit-Götter:  

Wo es keine Ordnung gibt, gibt es auch keine Gerechtigkeit und alles wandert sofort in die Barmherzigkeit ab. Nun gelten aus dem Aspekt der logischen Begriffsbildung die Sätze „Wer gerecht ist, ist nicht barmherzig“ und auch konträr „Wer barmherzig ist, ist  nicht gerecht“. Der hochgebildete Thomas von Aquin (Logiker und Theologe), der auch wusste, dass der biblische Satz  „Gott ist gerecht und barmherzig“ als Konjunktion logisch  falsch ist, sagte in  seinem Kommentar zum Matthäus-Evangelium (5,2) auch in konträrem Sinne: „Gerechtigkeit ohne Barmherzigkeit ist Grausamkeit; Barmherzigkeit ohne Gerechtigkeit ist die Mutter der Auflösung“.  

Der hl. Thomas sagt uns  Ordnungslosen, Modernen also, dass wir von der Mutter der Auflösung begleitet werden. Es  dürfte klar sein, dass PEGIDA diese Auflösung nicht will, Sie (hoffentlich) und ich übrigens auch nicht. Da haben wir schon eine wichtige Gemeinsamkeit. Und die „Basher“ stehen im Regen, sogar logisch. Als ich Sie gestern im Fernsehen sah, war ich tieftraurig. Eigentlich gilt der Satz “Wo Weihnachtslieder gesungen werden, da ist das Abendland“. Bischöfliche Verdächtigungen lässt man am besten vor der Tür, weil sie schlicht betrachtet  unchristlich sind. 

Der Punkt ist das Versagen unserer Politiker, die wie Götter im Himmel schweben. Straßburg lebt im „himmlischen Licht“ der irdischen Götter, nicht im Licht der Aufklärung oder des „lumen“ der christlichen Kirchen. Das erinnert mich an Hölderlins wunderschönes, berühmtes Gedicht „Hyperions Schicksalslied“, das eigentlich in gestaffelter Schreibweise notiert werden muss, was mir aber beim Kopieren aus Wikipedia nicht gelingt. Dichter sehen „verdichtet“ und manchmal auch genauer, was ja neben der Schönheit der Sprache seit alters her den Wert der Dichtkunst ausmacht.   

Friedrich Hölderlin (1770-1843) 

Hyperions Schicksalslied
Ihr wandelt droben im Licht
Auf weichem Boden, selige Genien!
Glänzende Götterlüfte
Rühren euch leicht,
Wie die Finger der Künstlerin
Heilige Saiten.

Schicksallos, wie der schlafende
Säugling, atmen die Himmlischen;
Keusch bewahrt
In bescheidener Knospe,
Blühet ewig
Ihnen der Geist,
Und die seligen Augen
Blicken in stiller
Ewiger Klarheit.

Doch uns ist gegeben,
Auf keiner Stätte zu ruhn,
Es schwinden, es fallen
Die leidenden Menschen
Blindlings von einer
Stunde zur andern,
Wie Wasser von Klippe
Zu Klippe geworfen,
Jahr lang ins Ungewisse hinab.
 

Wäre ich Pfarrer und stünde auf einer Kanzel, ich würde zum Politiker-Bashing übergehen. Ich darf „die Politiker“ sagen und meine „die Europa-Politiker“. Die nämlich haften mir in zivilrechtlicher Terminologie „gesamt-schuldnerisch“, d.h. ich darf mir einen von ihnen herausgreifen und ihn „bashen“. Der Beschimpfte  darf sich  dann, ganz im zivilrechtlichen Sinne, im Innenverhältnis der Politiker in Straßburg und Brüssel um Ausgleich bemühen, was von mir ja auch beabsichtigt wird, weil es dringend notwendig ist. Das Gesamtschuldnerische ist eine wunderbare Rechtskonstruktion, sehr beliebt und auch in der Lehre von der Erbsünde (peccatum originale) der Kirchen deutlich wiederzufinden. 

Frohe und gesegnete Weihnachten, Ihr H. Wedekind 

PS: Ich bin Mitglied der katholischen Pfarrei Liebfrauen in Darmstdt-Bessungen und emeritierter Professor für Informatik an der Universität Erlangen–Nürnberg. 

Einige Erläuterungen des Blog-Verwalters 

PEGIDA heißt Patriotische Europäer gegen die Islamisierung des Abendlandes. Es ist die am meisten diskutierte Bürgerbewegung unserer Tage. Sie macht montags Umzüge, vor allem in Dresden, an denen jeweils über 10.000 Menschen teilnahmen, mit bisher steigender Tendenz. Sie ist das Thema aller im Fernsehen inszenierten Talkschauen. Deutsche Politiker, die sich dazu äußerten, erschienen etwas ratlos. Von ‚Nazis in Nadelstreifen‘ war die Rede. Alle sind bemüht, die Gruppierung einzuordnen, entweder rechts oder links von der eigenen Position. Die jüngste aller deutschen Parteien, die AfD, droht an der Frage der Annäherung zu zerbrechen. Ein Vorstandsmitglied (Gauland) war in Dresden, um aus entsprechender Nähe die Luft zu schnuppern. Ein anderes Vorstandsmitglied (Henkel) rät dazu, alle Papiere und Teilnehmerlisten genau zu analysieren. 

Da deutsche Politiker von dem inhaltlichen Thema, das die PEGIDA-Leute bewegt, offensichtlich überfordert sind, versucht Wedekind das Phänomen den Kirchen ans Herz zulegen oder gar den Europa-Politikern. Bei der Katholischen Kirche wäre Hoffnung angebracht, da Papst Franziskus schon in Lampedusa war. Die Mitglieder der EU-Kommission sind leider gerade erst dabei ihre Büros einzurichten. Die EU-Parlamentarier sind zu besorgt, dass ihnen die Papierzeitungen wegsterben, da eine Firma aus Kalifornien (Google) denen seit Jahren die Anzeigenkunden abjagt. Früher dienten Zeitungen auch den berühmten hinterlistigen Zwecken. Das kann aber nicht mehr als Motiv der EU-Politiker dafür angesehen werden, dass sie sich mit großer Mehrheit für das Wohlergehen von Papierzeitungen engagieren. 

Heute schickte Hartmut Wedekind folgenden Nachtrag:

Ich bin nicht alleine auf der Welt. Der Daniel Decker in der FAZ heute mit „
Schutz in Deutschland“ redet genauso. Wir müssen zu einem Politiker-Bashing übergehen. Selbstverständlich wird Pegida unterwandert, wie alle politischen Vereinigungen.

Dienstag, 16. Dezember 2014

Erinnerungen an George Radin (1931-2013)

Während meiner 35-jährigen Tätigkeit bei der Firma IBM habe ich eine ganze Reihe ausländischer Kolleginnen und Kollegen kennengelernt, an die ich mich heute noch gerne erinnere. Zu einigen von ihnen habe ich heute noch Kontakt. Es sind dies in erster Linie Amerikaner, aber auch Engländer, Franzosen, Holländer, Japaner, Österreicher, Schweden und Schweizer. Mehrere dieser Kollegen wurden auch außerhalb der Firma IBM bekannt. Beispiele dafür sind Fred Brooks, Ted Codd,  Watts Humphrey, Ken Iverson, Nat Rochester, Jean Sammet und Heinz Zemanek. Im Folgenden will ich an George Radin erinnern, einen Kollegen, mit dem ich in mehreren Stationen meiner Laufbahn zusammengearbeitet habe. Es gibt mir außerdem die Gelegenheit, über einige wichtige Trends unserer Branche zu reflektieren, da Radin fast immer mit dabei war, wenn es um technische und strategische Fragen ging.


Zum ersten Mal trafen wir uns im Oktober 1963 im Time/Life Building in New York City. Wir waren beide Kollegen in derselben Abteilung, deren Aufgabe es war, eine neue Programmiersprache, New Programming Language (NPL) genannt, zu definieren. Sie wurde später in PL/I umbenannt. Im Time/Life-Hochhaus, das nach den zwei Zeitschriften des Verlegers Henry Luce benannt war, hatte IBM eine mittlere Etage gemietet. Das Gebäude liegt in der Avenue of the Americas und gilt als Teil des Rockefeller Centers. Hier waren die Compiler-Gruppen untergebracht für Commercial Translator (abgekürzt Comtran) und COBOL, die vorher in der Madison Avenue zuhause waren, sowie Reste der ursprünglichen (von John Backus geleiteten) Fortran-Gruppe, die sich mit einem interaktiven Interpreter beschäftigte.  

Um dieselbe Zeit, als ich in New York eintraf, wurde eine paritätisch besetzte Kommission, bestehend aus Vertretern der beiden Nutzerorganisationen SHARE und GUIDE und der IBM, beauftragt, die Sprachdefinition festzulegen. Die IBM hatte drei Vertreter George Radin, Bernice Weitzenhoffer und C. W. Medlock. Radin und Weitzenhoffer kamen aus Time/Life. Medlock kam von der aktuellen Fortran-Entwicklergruppe in Poughkeepsie, NY, und verfügte als einziger über Erfahrungen im Übersetzerbau. Die Sprachdefinition stand unter enormem Zeitdruck, da die neue Sprache zusammen mit dem System/360 angekündigt werden sollte. Das geschah auch im April 1964. Über den Definitionsprozess hat George Radin im Jahre 1981 einen externen Rückblick vorgelegt. Deshalb beschränke ich mich hier auf George Radins Rolle bei diesem Projekt. 

Bekanntlich war es das Ziel von PL/I auf der Sprachebene dasselbe zu erreichen, was die Hardware-Kollegen in Bezug auf die Rechnerarchitektur vorgemacht hatten, nämlich die Anforderungen der technisch-wissenschaftlichen und der kommerziellen Nutzer mit einem Produkt abzudecken. Es war nicht so sehr das Problem, die Kommissionsmitglieder unter einen Hut zu bringen als die sehr starken Einflüsse zu berücksichtigen, die von außerhalb der Gruppe kamen. Diese Anforderungen waren sehr widersprechend. Am stärksten wirkte sich der Einfluss der Fortran-Anwender aus. Sie sollten PL/I als konsequente Weiterentwicklung von Fortran erkennen und akzeptieren, weshalb die neue Sprache zwischendurch auch Fortran VI hieß. Aus der Sicht der COBOL-Nutzer mussten alle funktionalen Möglichkeiten vorhanden sein, so dass man vorhandene COBOL-Programme maschinell umwandeln konnte. Das führte zu einer Vielzahl von Datentypen und Datenstrukturen. Außerdem wollte man der akademischen Welt entgegenkommen, und einige Konzepte aus Algol übernehmen, wie etwa Rekursion und Blockstruktur. Schließlich kamen noch Forderungen von internen Benutzern dazu, die PL/I als Systemimplementierungssprache verwenden wollten. Daraus resultierten Zeiger und explizite Befehle zur Listenverarbeitung, direkter Speicherkontrolle und Ausnahmebehandlung. Das Ergebnis war eine ausdrucksstarke, sehr umfangreiche Sprache, die uns späteren Übersetzerbauern einiges Kopfzerbrechen bereitete. In einem Vortrag in Amsterdam im Jahre 2007 habe ich darüber berichtet. Der Vortrag ist in erweiterter Form in den IEEE Annals of Computing History (Heft 4/2013) erschienen. 

Radin hatte zweifellos einen bestimmenden Einfluss auf die neue Sprache. Seine Stärke war eine vorurteilsfreie, gesamtheitliche Sicht der Dinge. Seine schnelle Auffassungsgabe und geistige Flexibilität ließen ihn immer wieder Lösungen finden, die den divergierenden Anforderungen gerecht wurden. Da er meist schneller war als alle andern Mitglieder der Kommission, hatten seine Vorschläge gute Chancen das Rennen zu machen. Andere aus der Abteilung, so Louis Bolliet (auf Abordnung aus Grenoble), Peter Woon (mit dem ich heute noch Kontakt habe) und ich schrieben unter anderem Beispielprogramme, um nachzuweisen, dass COBOL-Anforderungen abgedeckt waren. Auch machten wir Detailvorschläge zu einigen Aspekten, die auch teilweise den Weg in die Sprache fanden. 

Nach Comtran, Fortran und APL beendete die Firma IBM mit PL/I ihr direktes Engagement für prozedurale Sprachen. Mit SQL, ADF und RPG verschob sich ihr Interesse auf deklarative Sprachen. Bei Anwendern erwiesen sich Fortran und COBOL als sehr resistent. Im akademischen Bereich – und später auch im PC-Bereich − setzten sich Sprachen durch, die leichter zu lehren und zu lernen waren als PL/I (wie Pascal und Basic). Den Bereich Systemprogrammierung übernahm eine Sprachfamilie (C, C++, Java), die stark mit dem Unix-System verknüpft war.


 

  Überblick über Radins Projekte

Wie in der Tabelle zusammengefasst, war Radin nach der PL/I-Zeit an mehreren Projekten beteiligt, die teilweise innerhalb der Firma eine größere Bedeutung hatten, als dies nach außen durchdrang. Das erste Projekt dieser Art hieß Future Systems, abgekürzt FS, und wurde von Poughkeepsie, NY, aus geleitet. Hier war Radin der Chefarchitekt. Ein Kollege, der ihn sehr unter­stützte, war Pete Schneider. Das Ziel war es, als Nachfolge für das System/360 eine umfassende Rechnerarchitektur zu definieren, die eine Basis für eine Vielzahl von technischen Realisierungen ermöglichte. Es sollte dem Anwendungsprogrammierer eine Schnittstelle angeboten werden, die einerseits seine Entwicklerproduktivität erhöht, andererseits den Programmen eine sichere und portable Ausführungs­umgebung bietet. Alle Datenobjekte sollten sich bezüglich Eigenschaften und Rechten weitgehend selbst beschreiben, so dass Fehlzugriffe vermieden wurden (engl. capability addressing). Statt einer explizit zu adressierenden Speicherhierarchie, die zwischen Hauptspeicher und peripherem Speicher unterschied, sollten sich alle Objekte in einem einheitlichen Adressraum befinden (engl. one-level store).  

Wie in [1] (S.538-553) nachzulesen, waren intern drei Schnittstellen festgelegt, und zwar von oben beginnend: 
  • ADI (Application Development Interface) für Compiler und Anwendungs­programme
  • EDI (Executive Discipline Interface) für die bisherigen Betriebssysteme und
  • NMI (New Machine Interface) für die anzuschließenden Geräte und Speichermedien
Es wurde angenommen, dass die beiden oberen Schichten in Mikrocode implementiert würden. Die Entwicklung der einzelnen Rechner war zwischen den Labors in Böblingen, Endicott, Hursley und Poughkeepsie in der Weise aufgeteilt, dass Böblingen das untere Ende, Endicott und Hursley den mittleren Bereich und Poughkeepsie das obere Ende abdecken sollten. Das Projekt geriet alsbald in mehrfacher Hinsicht in Schwierigkeiten. Einerseits zog sich der Termin für die Fertigstellung der Architektur immer mehr in die Länge, so dass die geplante Auslieferung der ersten neuen Systeme zu einer zeitlichen Angebotslücke im Markt zu führen drohte. Leistungsvergleiche für vorhandene Anwendungen ergaben, dass sie nicht mehr wettbewerbsfähig waren. Meine Kollegen in Böblingen hatten hier die überzeugendsten Argumente. Außerdem wurden immer mehr Fragen bezüglich Migrationspfaden und Umstellungskosten aufgeworfen – ein Argument, das immer wieder revolutionären Konzepten den Todesstoß gegeben hat. Im Jahre 1975 wurde das Projekt, was den Großsystembereich der IBM betraf, eingestellt. Die wesentlichen Elemente der FS-Architektur wurden später von den Kollegen in Rochester, MN, (unter Glenn Henry) übernommen und als AS/400 in den Markt gebracht.

Ob Radin selbst zu dem Schluss gekommen war, dass die Richtung die FS eingeschlagen hatte, technisch falsch war, ist mir nicht bekannt. Jedenfalls vollzog er fachlich einen Schwenk um 180°. Er plädierte nicht länger dafür, dass die Schnittstelle zwischen Hardware und Software nach oben verschoben werden sollte. Im Gegenteil, er argumentierte jetzt dafür, die Hardware in ihren Funktionen zu beschränken. Das interne Projekt, dem er sich anschloss, hieß Minicomputer 801. Die Architektur-Richtung, die er jetzt verfolgte, wurde als ‚Reduced instruction set computer‘ (RISC) in der Branche bekannt. Für Einzelheiten möchte ich auf seinen Bericht von 1982 verweisen. Die erste Implementierung dieses Konzepts erfolgte im Labor der IBM in Austin, TX, und wurde als RS/6000 angekündigt. 

Als nächstes wandte sich Radin wieder einem reinen Software-Projekt zu. Es war IBMs Versuch, in den Markt der CASE-Systeme einzusteigen. Zusammen mit Mitarbeitern aus dem Labor in Santa Teresa, CA, entwickelte er eine umfassende Software-Architektur, die im Jahre 1989 als AD/Cycle angekündigt wurde. Eine Artikelserie [2] im IBM Systems Journal im Jahre 1990 stellte das Konzept vor. Das Rückgrat dieser Architektur war ein zentraler Objektspeicher, der als ‚Repository‘ bezeichnet wurde. Hier sollten die Ergebnisse aller Entwicklungsstufen abgelegt werden. Das betraf Anforderungsdefinitionen, Entwurfsspezifikationen, Quellcode, Testfälle, usw. Ähnliche Konzepte wurden bereits von externen Normierungsgremien wie ECMA verfolgt. Objekt-orientierte Datenbanken waren in aller Munde.  

Das Konzept scheiterte im Markt an zwei Tendenzen, die Radin und seine Kollegen offensichtlich falsch eingeschätzt hatten. Viele Nutzer sahen in dem zentralen Objektspeicher den Versuch der IBM, den zentralen IT-Abteilungen dazu zu verhelfen, weiterhin im Geschäft zu bleiben. Genau das wollten die Nutzer von Personal Computern aber nicht. Sie wollten sich lösen und selbständig werden. Andererseits litten spezielle objekt-orientierte Datenbanken (OODBs) darunter, dass sie die vorhandenen relationalen Datenbanken nicht ersetzen konnten. Diese waren leistungsmäßig inzwischen so ausgereift, dass sie OODBs deklassierten. Außerdem verteidigten sie ihr Terrain, indem sie sich selbst in Richtung baumartiger Objekte erweiterten. IBM hat später wieder im CASE-Bereich Fuß gefasst durch die Akquisition der Firma Rational. Auf der Basis des bereits sehr erfolgreichen System Rose entstand später die Entwicklungsumgebung Eclipse, indem IBM das Produkt der Open Source Community zur Verfügung stellte.  

Radin hatte seit 1980 die Position eines IBM Fellows inne. Er besaß acht Patente im Bereich Rechner- und Systemarchitektur. Für die Erfindung der RISC-Architektur verlieh der US-Senat ihm 1992 den ‚Inventor of the Year Award‘. Sehr lebhaft erinnere ich mich an seinen Besuch 1976 in Stuttgart anlässlich der GI-Jahrestagung [3]. Ihm zuliebe besuchten Erich Neuhold und ich das Cannstatter Volksfest. Es blieb - nebenbei bemerkt - bislang mein einziger Besuch.

George Radin stammte aus Brooklyn, NY. Seine Eltern waren aus Osteuropa eingewandert. Er hatte 1951 einen B.A. in Englischer Literatur vom Brooklyn College erworben und 1952 einen M.A. in Mathematik von der Columbia University, gefolgt von einem M.Sc. in Mathematik von der City University of New York. Er war von 1962 bis etwa 1996 bei IBM tätig. Während seiner ganzen IBM-Laufbahn wohnte er im selben Haus in Grand View im Staat New York, am Westufer des Hudson River. Er pendelte täglich, mal nach Süden nach New York City, mal nach Norden nach Yorktown Heights oder Poughkeepsie, NY. Während seiner Zeit in Austin, TX, oder Santa Teresa, CA, wechselte er wöchentlich zwischen Wohn- und Arbeitsort. Er pendelte  ̶  jetzt per Flugzeug anstatt per Auto  ̶  über den ganzen Kontinent hinweg. Wie ich erst vor einigen Wochen erfuhr, starb George Radin im Mai 2013 in Agawam, Massachusetts. Er hinterließ seine Frau, drei Kinder und zwei Enkelkinder. Radin galt im privaten Bereich als Musik- und Tierfreund und spielte Cello. 

Zusätzliche Quellen
  1. Pugh, E.W., Johnson, L.R., Palmer, J.H. (1991): IBM’s 360 and Early 370 Systems. MIT Press, Cambridge, MA
  2. Mercurio, V. J., Meyers, B. F., Nisbet, A. M., Radin, G. (1990): AD/Cycle strategy and architecture. IBM Systems Journal, 29,2; 170-188
  3. Radin, G.: An Evaluation of Several System Protection Strategies. In: E.J. Neuhold: 6.GI-Jahrestagung, Stuttgart, Informatik-Fachberichte, Springer 1976,1-15
PS: You can find an English version of this entry here, albeit without activated links.

Montag, 15. Dezember 2014

Homo ludens und die Spielifizierung der Arbeitswelt

Letzte Woche brachte Gerd Scobel bei 3SAT unter der Überschrift Verspielte Welt einige Filme, die zeigten, dass sich Rechner, besonders Tablets oder Smartphones, sehr gut einsetzen lassen, um im Alltag ernsthafte Aufgaben spielerisch anzugehen. Hier ist ein enormes kreatives Potential vorhanden, das anzuzapfen sich lohnt. Der Homo ludens wird oft als Gegensatz zum Homo faber gesehen. Beide Begriffe beschreiben verschiedene Wege der Sinnfindung. Der Homo ludens ist der Typ, der im zweckfreien Spiel die Welt erkundet. Der Homo faber ist der Ingenieur, für den Wissen und Wissenschaft nur Mittel zum Zweck sind. Er lernt und forscht, um die Welt zu verändern. 

Schlagwort Spielifizierung (engl. Gamification) 

Wird im Deutschen über das spielerische Lösen von Problemen gesprochen, wird fast immer das englische Wort Gamification (oder das Lehnwort Gamifizierung) benutzt. Obwohl das deutsche Wort Spielifizierung (oder Spielifikation) nicht viel länger ist, wird es kaum verwandt. Wer weiß, wie sich Elektrifizierung zu Elektrizität verhält, müsste auch das deutsche Wort verstehen. Es geht allgemein um die Anwendung spieltypischer Elemente und Prozesse in spielfremdem Kontext, insbesondere bei interaktiven Computeranwendungen. Im Begleittext der Sendung hieß es: 

Wenn sie lästige Aufgaben spielerisch angehen, lassen sich Menschen zu Tätigkeiten motivieren, die sie sonst eher langweilen. Studien von Verhaltensökonomen zeigen, dass vor allem bei jüngeren Generationen eine Werteverschiebung stattfindet, die Folgen für Anreizsysteme hat. Motivation wie das Streben nach Geld oder Erfolg treten in den Hintergrund, wichtiger werden sinnstiftende Tätigkeiten. Genau hier wollen Experten ansetzen, wenn sie fordern, Gamification stärker in den Alltag zu integrieren. Leben, lernen und arbeiten wir besser, wenn der Alltag wie ein Computerspiel funktioniert?

Als Beispiele wurde die Stadt Oklahoma City in den USA gezeigt, die irgendwann in den Ruf kam, die meisten fetten Leute zu haben. Im spielerischen Wettbewerb durften Bürger ihre Gewichtsabnahmen publik machen. Als Ergebnis hat die Einwohnerschaft der Stadt innerhalb eines Jahres rund eine Million Pfund abgenommen. In einem anderen Falle wetteiferten Stadtteile um die Reduzierung von Müll. Auch Anwendungen im Schulunterricht wurden gezeigt. Mein Ex-Kollege Peter Hiemann aus Grasse, der die Sendung auch gesehen hatte, schrieb dazu: 

Bisher habe ich Computer vor allem als Hilfsmittel betrachtet, die dem Zweck dienen, Transaktionen von Institutionen zu automatisieren, individuelle geistige Tätigkeit zu unterstützen und individuelle Erkenntnisse andern mitzuteilen. Offensichtlich ermöglicht die allgegenwärtige Verfügbarkeit digitaler Anwendungsprogramme vielfältiger Art, psychologische, emotionale menschliche Affekte zu mobilisieren, mit sowohl positiven als auch negativen Konsequenzen. Lehrprogramme können zum Beispiel so gestaltet werden, dass "Lust beim Lernen" entsteht. Programme können einfach "Langeweile überbrücken". Programme zur Erfassung individueller Eigenschaften können "Frust" nach sich ziehen, wenn sie von Institutionen ausschließlich zu Effizienzsteigerung eingesetzt werden. Es ist nicht zu übersehen, dass mehr denn je individuelle Entscheidungen erforderlich sind, digitale Anwendungsprogramme nicht nur nach technologischen Kriterien zu bewerten. Wir sind gefordert zu verstehen, was digitale Anwendungsprogramme psychologisch und gesellschaftlich bewirken können oder gar beabsichtigen. Wir können Programme akzeptieren, sie mit individuellen Einschränkungen nutzen oder sie verwerfen.

Spielerische Elemente 

Anstatt alle Eigenschaften eines Computerspiels zu beschreiben, will ich versuchen die Frage zu beantworten: Was macht ein Programm zum Spiel? Nur so viel: Es ist eine zu lösende Aufgabe konkret vorgegeben. An der Lösung kann ein Einzelner arbeiten oder mehrere Personen gleichzeitig. Man kann das Ziel erreichen, oder auch nicht, d.h. man kann gewinnen oder verlieren. Meistens ist Geduld und Konzentration erforderlich. Es kann ein Zeitlimit vorgeben sein, muss aber nicht. Durch mehrmaliges Spielen kann man besser werden. Es gibt konkrete Erfolgserlebnisse; man kann aber auch scheitern. Oft gibt es Belohnungen, sehr selten jedoch Strafen. Man kann sein Abschneiden bei mehreren Versuchen vergleichen, oder sich mit andern Spielern messen. 

Vor- und Nachteile der Spielifizierung 

Als Spiel verkleidete, also spielifizierte Anwendungen werden häufig im Bereich der Werbung und Unterhaltung als Mittel der Kundenbindung eingesetzt. Sie finden sich auch zunehmend in Bereichen wie Fitness und Gesundheit, Ökologie und Sozialpolitik, sowie beim Online-Shopping. Informatikerinnen und Informatiker sollten ihnen ernsthafte Beachtung schenken. Vielleicht ergeben sich daraus durchaus interessante Lösungsansätze, um Anwendungen „benutzungsfreundlicher“ zu gestalten. Es wäre ein falscher Dünkel, wenn wir uns scheuen würden, von Spiele-Entwicklern zu lernen.  

Während in den bisherigen Zitaten besonders der motivierende Effekt hervorgehoben wurde, möchte ich zwei weitere Gründe benennen, warum die Spielifizierung für die Informatik wichtig ist. Der erste Grund ist im Wikipedia-Eintrag zum Stichwort Gamification erwähnt: ‚Gamification verwendet einen Empathie basierten Ansatz‘. Unter Empathie versteht man die Fähigkeit und die Bereitschaft, sich in die Gefühle und Gedanken einer anderen Person zu versetzen. Sie ist die Voraussetzung für Mitleid, Trauer und Hilfsbereitschaft. Sich von Empathie leiten zu lassen, sollte sich nicht auf Spiele beschränken. Es sollte für alle Informatik-Anwendungen der Fall sein. 

Der zweite Grund ist fast noch wichtiger. Spiele galten schon immer als äußerst anspruchsvolle Anwendungen, was die Mensch-Maschine-Kommunikation betrifft. Sind die Dialoge nicht dem Können der Nutzer angepasst, oder sind die Reaktionszeiten inakzeptabel, verlieren Nutzer die Lust und verabschieden sich. Sie sind nicht bereit, ein Interface zu tolerieren, wie es vielen betrieblichen Nutzern zugemutet wird. Erinnern möchte ich an folgende Eigenschaften, die seit Jahrzehnten für alle Arten von Computer basierten Dialogen gefordert werden:  

  • Sichtbarer Status: Der Anwender möchte nach jedem Arbeitsschritt wissen, wo er sich befindet.
  • Transparenz des Weges und des Resultats: Es sollte jederzeit klar ersichtlich sein, welche Schritte möglich sind und wann das Ziel erreicht ist.
  • Positive Rückmeldung: Erfolgreiche Aktionen sollten als solche bestätigt werden oder erkennbar sein.
  • Fehlertoleranz: Wenigstens der letzte Schritt sollte rückgängig gemacht werden können. Besser noch: alle Schritte.

Auch im Hinblick auf computergestützte Gruppenarbeit (engl. computer supported cooperative work, Abk. CSCW) ist der spielerische Ansatz von Nutzen. Es lassen sich Projekte leichter organisieren, bei denen zuerst Kontakte hergestellt und eine geeignete Organisationsform erst gefunden werden muss. Im Spiel zeigen die Teilnehmer ohne Skrupel, welche Fähigkeiten sie besitzen und wo ihre Grenzen liegen. Selbst beim Erlernen einer Programmiersprache kann ein spielerischer Umgang mit den einzelnen Programmierschritten hilfreich sein. 

Obwohl die Vorteile überwiegen, sollte man die Nachteile nicht völlig übersehen. Erfahrene Nutzer fühlen sich nicht selten unterfordert. Erwachsene fühlen sich wie Kinder behandelt. Leute, die lieber allein arbeiten oder sich selbst motivieren, kommen sich vor, als ob man sie überlisten möchte. Viele Menschen sind bereit, die Welt so zu akzeptieren, wie sie ist. Sie schlucken Arzneien auch, wenn sie nicht in Zuckerguss serviert werden. Manche Menschen verabscheuen aufdringliche Gruppenarbeit und Massenspiele. Einzelkämpfer sollte man nicht generell vergraulen. Sie sind oft die ‚smart creatives‘, auf die ein modernes Unternehmen angewiesen ist. 

Historische Perspektiven 

Dieser Tage erinnerte mich mein Kollege Rul Gunzenhäuser daran, dass es Computerspiele gibt, seit es Computer gibt. Ich selbst spielte 1957 an der IBM 650 Tic Tac Toe und Nim, einfache Brettspiele. Wir machten Musik mit Hilfe eines Schnelldruckers. Später kamen Mühle und Schach. Kollege Gunzenhäuser, der an der Universität Stuttgart sich ein Leben lang mit computer-gestütztem Lernen und Mensch-Maschine-Interaktion befasst hatte, schrieb dazu: 

Der Begriff "Spielifizierung" gefällt mir eigentlich nicht. Die Pädagogik spricht immer vom "spielerischen Lernen, Arbeiten, Forschen usw."  Das Thema ist nicht ganz neu: Schon im Mittelalter wurde bei Turnieren (mit Spielregeln) für den ernsten Kampf trainiert. Pestalozzi führte das spielerische Lernen im Kindergarten ein, Kerschensteiner dann beim spielerischen Erlernen von Fakten, Algorithmen und Verhaltensweisen in der Volksschule. In den 1980-Jahren waren am MIT mehrere Arbeitsgruppen mit Lernen und Programmieren durch spielerischen Umgang beschäftigt, z.B. Projekt Mindstorm und Projekt LOGO. Bei Mindstorm ist die dänische Firma Lego eingestiegen. Die interaktive Programmiersprache LOGO bietet eine (in ein Spiel eingebettete) Visualisierung der Lösungsschritte.

Aktuell aus dem Netz 

Auf eine Diskussion des Themas in Computing Now vom 10.12.2014, einer Online-Publikation der IEEE, sei hingewiesen. Dort heißt es geradezu euphorisch: ,Durch Spielen lassen sich andere inspirieren, um bewusst Regeln zu brechen, Grenzen zu überschreiten und auf der ganzen Welt zusammenzuarbeiten, um übergreifende Anwendungen in Kunst, Kultur, Wissenschaft, Unternehmen und Bildung zu entdecken.‘ Bei SAP in Walldorf meint man: ‚Gamifizierung heißt der neue Trend bei Unternehmensschulungen, der sich in Windeseile ausbreitet – und das aus gutem Grund: Spielen macht Spaß, und mit der Verbreitung sozialer Medien sind Spiele allgegenwärtig geworden.


PS: Ein Grund, warum ich lieber Spielifizierung anstatt Gamifizierung sage, hängt mit den Assoziationen zusammen, die sich bei mir einstellen. Wenn ich in Gamifizierung den ersten Vokal wie ein deutsches A (und nicht Englisch wie in games) ausspreche, denke ich zu allererst an gammeln und Gammelfleisch.