Dienstag, 30. August 2011

Rul Gunzenhäuser über Mensch-Computer-Interaktion und E-Learning

Rul Gunzenhäuser ist emeritierter Informatik-Professor der Uni Stuttgart. Von 1973 bis 1999 war er Leiter der Abteilung Dialogsysteme am Institut für Informatik. Davor war er Associate Professor an der State University of New York sowie Professor für Angewandte Mathematik und ihrer Didaktik an der damaligen Pädagogischen Hochschule Esslingen. Gunzenhäuser hatte Mathematik, Physik und Philosophie an der TH Stuttgart und an der Universität Tübingen studiert. Seit 2003 ist er Fellow der Gesellschaft für Informatik. 

 
Bertal Dresen (BD): Stelle ich mir Ihr Lebenswerk vor, drängen sich mir die beiden im Titel genannten Themen auf. Als Forschungsthema hat die Mensch-Computer-Interaktion eine lange Tradition. Auch der Industrie lag das Thema aus verständli­chen Gründen immer sehr nahe. In unserem gemeinsamen Buch ‚Schuld sind die Computer!‘ von 2010 ist ‚Quelle von Frust‘ zufällig das erste der 36 von uns behan­delten Probleme. Wie sehen sie rückblickend die Entwicklung dieses Arbeitsfeldes? Wo wurde sichtbarer Fortschritt erzielt? Was davon ist besseren Methoden zu ver­danken? Scheint man nicht bei jedem Techniksprung (vom Großrechner, zum Lap­top, zum Smartphone) wieder Einiges vergessen zu haben, was man schon mal im Griff hatte?

Rul Gunzenhäuser (RG): Mein beruflicher Weg von der Angewandten Mathematik zur Informatik verlief keineswegs geradlinig. Als wissenschaftlicher Assistent war ich am Rechenzentrum der damaligen TH Stuttgart auch mit Ausbildungsfragen be­schäftigt. Als gelernter Lehrer stieß ich 1962 auf das damals aktuelle Thema “Lehr­maschinen und Programmierte Instruktion“. Hier wurden Lernmethoden aus dem US-amerikanischen Behaviorismus (B.F. Skinner, N. Crowder) in Buchform und mit einfachen mechanischen Geräten umgesetzt. Die Chance, Übungsaufgaben und soge­nannte tutorielle Lernprogramme – ohne Papier und Mechanik – durch Computer präsentieren zu können, wurde rasch erkannt. Um 1963 entwickelte IBM das Auto­rensystem COURSEWRITER II, mit dem verzweigte Lernaufgaben interaktiv erstellt, erprobt und präsentiert werden konnten. 

An der Pädagogischen Hochschule Esslingen stand die Entwicklung von Lernprogrammen für den Mathematikunterricht im Vordergrund, im Studienschwerpunkt „Mensch-Computer-Kommuni­kation“ (ab 1972) dann die Analyse der Lernsoftware und die Anwendung von Dialogspra­chen (wie APL, BASIC, LISP) bei der Entwicklung von interaktiven Systemen. Tech­nische Fortschritte konnten z. B. bei der Weiterentwicklung von Dialogtechniken (von der Menütechnik zur Direkten Manipulation), bei Hilfesystemen und bei den Implementierungs­techniken (von imperativen Dialogsprachen hin zu objektorientierten Entwicklungssystemen) erzielt werden. Der technische Fortschritt bei der Hardware (vom Großrechnerterminal über den PC mit Fenstertechnik bis hin zu internet-basier­ten Smartphones) und bei der entsprechenden Software für die Dialogtechniken erforderte häufige Änderungen in den Implementierungsverfahren bis hin zum fun­damentalen Methodenwechsel. Die wichtigsten Paradigmen für die Erstellung, Er­probung und Nutzung interaktiver Computersysteme konnten jedoch über Jahrzehnte hin­weg erstaunlich konstant gehalten werden.  

BD: Dank Mitarbeitern von Ihnen, die ins Böblinger IBM Labor wechselten, konnten wir einige Projekte durchführen, die uns die Grenzen des Machbaren aufzeigten. Weiterer Fortschritt hätte nur erzielt werden können, wenn man noch mehr Informa­tion über die spezifischen Schwächen und Präferenzen einzelner Nutzer gesammelt und ausgewertet hätte. Das wollten wir nicht. Wir entschieden uns dafür, dass Nutzer sich selbst einer recht groben Klassifizierung unterwerfen, etwa in Anfänger oder Ex­perten. Besteht dieser Konflikt zwischen helfen wollen und Eindringen ins Persönliche nicht generell, oder sieht man das heute anders?

RG: Anfang der 1980er Jahre versprach die Forschung in Künstlicher Intelligenz, die aus den USA und aus Japan zu uns kam, vermehrtes Verständnis für das kognitive Verhalten von Menschen, also auch von Computernutzern. In prototypischen Entwicklungen konnten wir Erfahrungen mit „wissensbasierten“ Benutzermodellen sammeln, die bei der Nutzung der Systeme laufend Daten über die Benutzer sammelten und ergänzten und damit in der Lage waren, diese in unterschiedliche Benutzergruppen (Anfänger, Fortgeschrittene, Experten usw.) zu klassifizieren. Damit konnte das „Expertensystem“ (so nannte man wissensbasierte Dialogsysteme) unter unterschiedliche Dialog- und Interaktionstechniken auswählen und diese an die Benutzer anpassen. Entsprechende Leistungen konnten „aktive“ Hilfesysteme erbringen, indem sie auf das Vorwissen der Benutzer aufbauen und ihm dann gezielt Hilfen geben konnten. 

Die Anwendung von Expertensystemen blieb allerdings auf wenige Bereiche beschränkt. Ne­ben der medizinischen Diagnostik waren es Lernsysteme, die das Problemlösen un­terstützen konnten, sowie „intelligente“ Strategiespiele, die teilweise eigens für diese Forschungsrichtung der Informatik erfunden wurden.

Der von Ihnen erwähnte Konflikt zwischen instrumenteller Hilfe und der Akzeptanz solcher „unaufgeforderter“, nicht selten aufdringlicher Ratschläge und Eingriffe in das Benutzerverhalten wurde schon in den 1980er-Jahren thematisiert. Auch wenn „smarte“ Telefone heute auf Grund ihres bisherigen Nutzerverhaltens ihre Nutzer auffordern, sich unmittelbar für eine der angegebenen Alternativen zu entscheiden, treten solche Konfliktsituationen auf. Da aber heute Millionen von Nutzern durch diese Applikationen angesprochen werden, sorgt das verantwortliche Marketing dafür, möglichst viele potenzielle Konfliktsituationen zu vermeiden.

BD: Die Diskussionen um Ergonomie und Benutzbarkeit litten früher oft darunter, dass gesagt wurde, hier gäbe es kaum harte Daten, sondern nur Meinungen und Gefühle. Hat sich das geändert? Wer hat wann dazu beigetragen? Sind die Fort­schritte, die erzielt wurden, aus der Technik heraus erfolgt, also aus der Informatik selbst, oder haben Fachleute anderer Gebiete, wie Psychologen und Soziologen, mit dazu beigetragen? Wenn ja, an wen denken Sie?

RG: In der Tat gab es noch anfangs der 80er Jahre (zu) wenig harte Daten, um die Benutzbarkeit (engl. usability) von informationstechnischen Geräten und Anwen­dungssystemen zu erforschen. Größere Fortschritte konnten dann durch die „Soft­ware-Ergonomie“ erzielt werden, die eine starke Stütze in den Arbeitswissenschaften fand. Der Ruf nach „Benutzungsfreundlichkeit“ wurde – nicht zuletzt durch die Verfügbarkeit von „persönlichen Computern“ – immer lauter. Daher beteiligte sich auch die Informatik federführend an der Erstellung von geeigneten Richtlinien, DIN- und ISO-Normen; ihr Einfluss blieb jedoch auf das Methodisch-Technische beschränkt. 

Erst mit dem Internet und seinen Erfordernissen, in kurzer Zeit eine Vielzahl von „nutzerfreundlichen“ Web-Seiten zu erstellen und nach oft nur kurzer Erprobung einzusetzen, wurde der Ruf nach Fachleuten für Mensch-Computer-Nahtstellen laut. Es entstanden neue Berufe wie „Mediendesigner“ und Entwurfsspezialisten für Internet-Seiten, die heute als „usability experts“ sehr gefragt sind. Sie werden auf Fachschul- und auch Hochschulniveau ausgebildet und haben sich in größeren Berufsverbänden organi­siert. Zur anwendungsorientierten Informatik bestehen gute Kontakte, weil diese An­wender bei den von ihnen verwendeten Werkzeugen (wie Baukästen für Interaktionsobjekte) und Methoden (wie objektorientierte „Welten“ für spezielle Auf­gaben) auf die Bereitstellung und Weiterentwicklung dieser Verfahren durch die In­formatik angewiesen sind. Im Erfahrungswissen dieser „usability experts“ stecken vermehrt auch fundierte Erkenntnisse aus Feldern der kognitiven Psychologie und aus der Erforschung des Verhaltens sozialer Gruppen.

BD: Ein besonderes Anliegen war Ihnen immer die Unterstützung von Blinden und Sehbehinderten durch Computer. Wie in diesem Blog bereits erwähnt, haben Sie sich auch des Themas Computer und Senioren angenommen. Wo sehen Sie in bei­den Fällen die größten Herausforderungen? Sind es technische Fragen, oder muss zuerst bei den Betroffenen eine Motivationsschwelle überwunden werden, damit of­fensichtliche Vorteile genutzt werden?

RG: Unsere Kontakte zu blinden und sehbehinderten Menschen verdanke ich meiner Mitarbeiterin, der Mathematikerin Waltraud Schweikhardt. Ihre Ideen, wie man Schüler, Studenten und Erwachsene aus diesem Kreis an der Nutzung von Computern betei­ligen kann, wurden von der Deutschen Forschungsgemeinschaft nachhaltig gefördert. Wir konnten selbst entworfene und entwickelte Lernprogramme an Schulen testen und die Nutzung von Bildschirmtext (Btx), einem Vorläufer von E-Mail und netzgestützten Informationsdiensten, erproben. Wir gingen von neuen technischen Möglichkeiten aus, (erweiterte) Blindenschrift und einfache Grafiken durch interaktive „taktile Zeilen“ und größere Displays fühlbar und erfahrbar zu machen.

Auch in späteren Projekten u.a. zum Entwurf, der Erstellung und Erprobung von mul­timodalen GUIBs (Abk. für ‚graphical user interfaces for the blind‘) hatte unsere Stuttgarter Gruppe die Verantwortung für die technischen Arbeiten, also die Geräte und deren Programmierung. In drei EU-Projekten haben wir mit Gruppen aus England, Italien, Griechenland usw. zusammengearbeitet, die sich eher den psychologisch-pädagogi­schen Aufgaben und der Erprobung unserer Produkte mit vielen blinden und sehbe­hinderten Menschen gewidmet haben. Die gemeinsamen Erfolge blieben nicht aus. Heute arbeitet am Stuttgarter Institut VIS eine Forschergruppe erfolgreich an der Weiterentwicklung der (taktilen) Geräte und an neuen Möglichkeiten der Navigationsunterstützung von Behinderten durch GPS-gestützte Orientierungssysteme.

Als Senior habe ich mannigfache Kontakte zu gleichaltrigen Personen. Viele unserer Interessen wie medizinische Versorgung, Reisen, Fotografieren usw. sind gemeinsam. Gemeinsam ist oft auch das Interesse an der Nutzung moderner Geräte der Informatik. Man tauscht häufig und gerne Erfahrungen und kleinere Erfolgserlebnisse aus. Die Gruppe der Senioren ist nach jüngsten Erfahrungen aber (zu) heterogen, als dass man sie zu Interessengruppen zusammenschließen kann, die gemeinsam technische Fragen diskutieren, sich  gemeinsam informieren und unterstützen – oder gar weiterführende Ideen zur Computernutzung zu entwickeln. Einzelfälle bilden erfreuliche Ausnahmen.

Blinde und sehbehinderte Menschen sind hoch motiviert, durch neue technische Möglichkeiten im sozialen Leben, in der Familie und im Beruf integriert zu werden. Sie ar­beiten meist hart, um die Geräte und Methoden zu  beherrschen. Der nach meinen Erfahrungen größere Teil der Senioren ist zwar motiviert, sich moderne Geräte zu beschaffen und damit interessante Anwendungen zu erproben und – soweit das ra­sche und bequeme Vorteile bietet – auch zu nutzen. Stellt sich der Erfolg aber nicht auf Anhieb ein, verlieren Senioren oft (zu) schnell die Motivation, geben auf und verzichten lei­der auch auf Unterstützung durch Fremde oder durch vorhandenes Schrifttum.

BD: E-Learning hieß früher Computer unterstützter Unterricht (CUU). Hat sich nur der Name geändert, oder gab es in letzter Zeit auch einige grundlegend neue An­sätze? Wenn ja, was waren diese? Wem helfen sie, wem nicht? Findet E-Learning eigentlich die Akzeptanz, die es verdient? Wenn nicht, woran liegt dies, und was kann/sollte getan werden?

RG: Der computer-unterstützte Unterricht der 1960er und 1970er Jahre be­schränkte sich auf wenige Lehr- und Lernmethoden, beispielsweise die überwachte Lö­sung von Übungsaufgaben, das tutorielle Lernen, einfache Simulationen und Lernspiele. Die ständige Verbesserung und Leistungssteigerung der Hard- und Software erweiterte den Kreis dieser Methoden. Durch das World Wide Web kamen neue Verfahren für die gezielte Suche nach Informationen hinzu sowie interessante Möglichkeiten für die  direkte und freie Kommunikation zwischen den Lernenden und dem Lernsystem und unter den Ler­nenden selbst. Neuartige Visualisierungs- und Simulationsverfahren und auch Experten­wissen (engl. expert knowledge) über die betreffenden Fachgebiete wurden in die modernen Internet-gestützten „Lernplattformen“ ebenso integriert wie detailliertes, veränderliches Wissen über die Lernstrategien, die zur Verfügung stehen. Das E-Learning war geboren. 

Solche Lernplattformen wurden bald  (zu) kompliziert, um sie im Alltag anzuwenden. Daher entwickelte sich in den 1990er Jahren CBT (Computer Based Training) als einfache Alternative mit schlichten Übungs- und Prüfungsfunktionen. Es ist nicht einfach, sich einen klaren Überblick über die derzeitige Nutzung von E-Learning-Verfahren zu verschaffen. Oft dominieren eher einfache Nutzungsmöglichkeiten. Die Universität Stuttgart hat beispielsweise den Großteil ihrer Lehrveranstaltungen „ins Netz gestellt“. Über eine allgemein zugängliche Lernplattform lassen sich deren Inhalte, Aufgaben und Sonderprobleme bearbeiten. Ein  Diskussionsforum und die direkte Adressierung der Lernenden ermöglichen eine individuelle Nutzung dieser E-Learning-Verfahren. In Firmen wie z.B. der Volkswagen AG werden zahllose Schulungen, Umschulungen und Trainingseinheiten rechnergestützt dargeboten, überwacht und die „Adressaten“ nach ihren Fortschritten bewertet. Die Vorbereitung auf die Führerscheinprüfung ist heute ohne CBM-gestützte Verfahren nicht mehr üblich, da auch die (theoretische) Prüfung interaktiv am Rechner abgenommen wird. Eine Reihe von interessanten Anwendungsgebieten wird im oben erwähnten Buch ‘Schuld sind die Computer!‘ ab  S.75 erwähnt.

Über die aktuellen Forschungsgebiete des E-Learning gibt es internationale Fachtagungen, wo über erfolgreiche Anwendungen berichtet wird. Die Akzeptanz unter Schülern und Studierenden ist sehr unterschiedlich. Viele „browsen“ im Netz und erfreuen sich an E-Learning-Spielen, eine wohl kleinere Nutzergruppe bearbeitet Prüfungs- und Übungsaufgaben. Dies geschieht oft nur dann, wenn eine Prüfung, ein Leistungstest oder eine sonstige „sekundäre Motivation“ vorliegt.

BD: Unter der Überschrift ‘Untergang des Bildungswesens‘ haben wir im erwähnten Buch die Sorgen Außenstehender aufgegriffen, die befürchten, dass es bald keine Schulgebäude, Schulbücher und Bibliotheken mehr geben wird. Gibt es nicht doch einige potentielle Gefahren, die sich daraus ergeben, dass Computer sich im­mer mehr zwischen Lehrer und Schüler schieben? Wenn ja, was sollen und können wir tun?

RG: Der Untergang unseres Bildungswesens – wenn es überhaupt dazu kommt – dürfte andere Gründe haben als die Computer, die sich zwischen Lehrende und Ler­nende drängen. Eher möglich ist, dass wir unser recht komfortables Bildungswesen mit­samt den Lehrern und den Schulpalästen nicht mehr bezahlen können oder wollen. Zu erwarten ist, dass wir demnächst die Fülle des in der Schule „auf Vorrat dargebotenen“ Lern­stoffs drastisch reduzieren und die Schüler stärker als bisher an sorgfältig aus­gewählten, die allgemeinen Bildungsinhalte aber nicht vollständig abdeckenden Lern- und Problemlöseeinheiten schulen. 

Vielleicht werden auch die teuren Schulbücher stark reduziert. Sicherlich kann und darf aber am Einsatz von modernen Systemen der Informatik nicht gespart werden. Im Gegenteil: Computer, Smartphones und die ganze Schar nachfolgender Geräte werden nicht nur an der Nahtstelle zwischen Lehrer, Schüler und Lernstoff eingesetzt, sondern als stets präsente, hilfreiche Medien und Werkzeuge, die ihren Nutzern viel Routinearbeit abnehmen. Warum sollen die Schüler mühsam physikalische Größen umrechnen, wenn dies von einem „App“ im iPhone in Sekundenschnelle erfolgen kann? Die Schüler müssen aber nach wie vor die physikalischen Grundlagen dieser Maße und Begriffe kennen. Warum sollen die Schüler mühsam eine „Schreibschrift“ erlernen, wenn sie durch ein anderes „App“ einfache gesprochene Texte rasch in geschriebenen Text umsetzen können? Die Schüler müssen aber weiterhin die Grammatik ihrer Sprache beherrschen, um solche Texte in eine korrekte Form zu bringen.

Dies sind nur Beispiele, die zeigen, dass der Nutzen solcher Geräte (und die Freude daran) die zweifellos vorhandenen Gefahren weit überwiegen. Ein weiteres neues Bildungs­ziel ist aber, unsere Schüler und Jugendliche eindringlich darauf hinzuweisen, dass bei der immer einfacher werdenden Computernutzung die Preisgabe (sehr) persönlicher Daten und deren Verwendung durch Unbefugte sie unumkehrbar in gefährliche und in jeder Hinsicht „teure“ Situationen bringen kann. 

Wir Menschen haben das Rad, das Schießpulver, die Antibiotika und vieles andere mehr erfunden schließlich auch die vielen Arten von Computern. Lernen wir auch in der Schule, damit sinnvoll und nutzbringend umzugehen? Chemikalien und Medikamente sind heute unverzichtbar, auch wenn man damit schreckliches Unheil anrichten kann. Auf den ersten Blick sind die Computer weniger gefährlich, auch wenn sie (Spiel-)Sucht und andere Gefahren und Probleme auslösen können. Diese zu erkennen und zu vermeiden, müssen wir – vielleicht sehr mühsam – erlernen. Aber unsere Welt der Computer ist unver­zichtbar geworden. Dies gilt auch im Bereich der Schule und der Bildung.  

BD: Vielen Dank, Herr Gunzenhäuser, für das ausführliche und informative Interview. Ich habe das Gefühl, dass Sie darin fast Ihr ganzes akademisches Leben Revue passieren ließen. Viele Ihrer Doktoranden und Diplomanden werden sich wiedererkennen.

Freitag, 26. August 2011

Zu den Hungersnöten am Horn Afrikas

In der Geschichte der Menschheit, so wie sie z.B. Ian Morris in dem von mir besprochenen Buch dargestellt hat, spielen zwei Weltregionen eine besondere Rolle. Beide haben die Form einer Mondsichel und liegen nur etwa 30 Breitengrade voneinander entfernt. Gemeint ist einerseits der Fruchtbare Halbmond, der sich von Ägypten ausgehend über Syrien, das südliche Anatolien bis nach Mesopotamien (der heutige Irak) und Persien (der heutige Iran) erstreckte. Hier wurden vor etwa 15.000 Jahren Nomaden zu Bauern und gründeten Städte, in denen unterschiedliche Berufe sich arbeitsteilig ergänzten. 

Die Weltregion, mit der ich mich im Folgenden beschäftige, hat vom UN-Sicherheitsrat die Bezeichnung ‚Bogen der Instabilität‘ erhalten. Sie erstreckt sich vom Horn Afrikas, über den Jemen, nach Afghanistan, Bangladesch bis nach Myanmar und Laos. Diese Gegend ist nicht nur zurückgeblieben (oder zurückgefallen), was den Aufstieg von Wirtschaft und Kultur betrifft, sie ist außerdem häufiger von politischen und kriegerischen Auseinandersetzungen betroffen als manche andere Gebiete der Erde. Das Horn Afrikas ist ein Extrembeispiel eines permanenten Krisenherdes.

Zum Horn Afrikas rechnet man folgende Länder: Äthiopien, Dschibuti, Eritrea, Kenia und Somalia. Im Moment ist Somalia mal wieder täglich in den Nachrichten mit Bildern von hungernden Kindern und Spendenaufrufen an die Bewohner reicher Länder. Im Vergleich zu früheren Spendenaktionen für die Tsunami-Opfer in Sumatra, die Erdbebenfolgen in Haiti oder die Überflutungen im Industal, soll das bisherige Spendenaufkommen jedoch zu wünschen übrig lassen. Ruft man sich die letzten 30 Jahre in Erinnerung kann man diese etwas verhaltene Reaktion der Weltgemeinschaft vielleicht sogar verstehen. Billigen sollte man sie nicht. Im Folgenden versuche ich mich der schwierigen Doppelfrage zu nähern, was läuft da eigentlich ab und was lässt sich (noch) tun? 

Sehen wir uns die fünf betroffenen Länder kurz einzeln an. Einige statistische Daten sind in folgender Tabelle angegeben, mit einem Vergleich zu Deutschland.


Äthiopien gilt als einer der ältesten kontinuierlich bestehenden Staaten der Welt. Seine Ursprünge reichen bis ins 9. Jahrhundert v. Chr. zurück. Das Land wurde nie von Europäern kolonisiert, außer einer kurzen Zeitspanne der italienischen Besetzung vor dem zweiten Weltkrieg. Danach herrschte Kaiser Haile Selassie, der in der ganzen Welt herumreiste und dadurch sein Land bekannt machte. Im Jahre 1974 wurde die Monarchie gestürzt. Das darauf folgende kommunistische Regime erwies sich nicht nur als sehr repressiv, es verschuldete auch eine erste große Hungersnot. Es kam zum Bürgerkrieg, der bis 1991 anhielt. An der Stelle der Kommunisten etablierte sich ein föderales System, das auch heute noch besteht. Die Bevölkerung besteht etwa aus 60% Christen, von denen die Mehrheit zur äthiopisch-orthodoxen Kirche gehört, und etwa 40% sunnitischen Muslimen. Im deutsch-sprachigen Raum warb der Schauspieler Karlheinz Böhm seit 1981 sehr stark für Äthiopien. Er sieht die Ursachen für die Armut in Äthiopien vor allem in der sozialen Benachteiligung von Frauen.

Dschibuti ist das kleinste der hier beschriebenen Länder und liegt am Südausgang des Roten Meeres (dem Bab el Mandeb). Es war von islamischen Nomaden bevölkert, bis dass Frankreich nach dem Bau des Suezkanals ein Gegenstück zum britischen Militärhafen von Aden suchte. Man kaufte 1862 zuerst das Gebiet von Obock und später das ganze Gebiet des heutigen Staates. Nach der 1917 erfolgten Fertigstellung einer Bahnlinie nach Addis Abeba wurde Dschibuti zum wichtigsten Ausfuhrhafen Äthiopiens. Nach einer schrittweisen Entlassung in die Selbständigkeit sprach sich 1958 die Mehrheit der Bevölkerung für einen Verbleib bei Frankreich aus. Unter dem Druck anderer afrikanischer Staaten und der UN wurde Dschibuti jedoch 1977 ein selbständiger Staat. Ich selbst wurde auf diese Exklave französischen Lebens in der arabischen Welt aufmerksam durch den Schriftsteller Henry de Monfreid [1], den ich 1963 persönlich kennen lernte. Das zitierte Buch beginnt mit dem schön klingenden und pathetischen Satz: 

Mon fils ainé est né là-bas, au sud de la Mer Rouge, et comme un petit sauvage a poussé en liberté sur la plage d’Obock. [Mein ältester Sohn ist da unten geboren, im Süden des Roten Meeres, und wie ein kleiner Wilder wuchs er in Freiheit auf am Strand von Obock]. 

Das war um 1930 herum, als Dschibuti noch französische Kolonie war. Heute sind noch etwa 5% der Einwohner Franzosen.

Eritrea ist der jüngste der fünf Staaten. Nachdem das Land lange Zeit mit Äthiopien vereinigt war, erhielt es 1993 nach einem dreißigjährigem Krieg wieder seine Unabhängigkeit. Fünf Jahre später brach ein Konflikt mit Äthiopien über den Grenzverlauf aus, der 2002 von einer UN-Grenzkommission beigelegt wurde. Die religiöse Struktur der Bevökerung ist ähnlich wie in Äthiopien.

Kenia war seit 1895 englische Kolonie. Ab 1952 wurde das Land von  den Aufständen der berüchtigten Mau-Mau-Rebellen erschüttert, erreichte aber bereits 1963 seine Unabhängigkeit unter Jomo Kenyatta,  dem Anführer der Rebellen. Seither wird das Land von einem Einparteiensystem regiert. Der Tierreichtum seiner Nationalparks lockt Touristen noch stärker an als die Küstenstrände um Mobasa. Im Frühjahr 2006 litt der Nordosten des Landes unter den Folgen einer Dürre und es kam zu einer Verknappung von Nahrungsmitteln. Zurzeit wird Kenia vor allem von der Hungersnot im benachbarten Somalia in Mitleidenschaft gezogen. Etwa 70% der Kenianer sind Christen, 20% Muslime und 10% hängen afrikanischen Naturreligionen an.

Somalia ist das Land, bei dem sich die Probleme des Horns von Afrika kulminieren. Somalia entstand aus dem Zusammenschluss der Kolonialgebiete Britisch- und Italienisch-Somaliland, die 1960 gemeinsam unabhängig wurden. Seit dem Sturz der autoritären Regierung unter Siad Barre im Jahre 1991 befindet sich das Land im Bürgerkrieg. Die international anerkannte Übergangsregierung kontrolliert nur einen kleinen Teil des Staatsgebiets. De facto befindet sich das Land in der Hand lokaler Clans, von Kriegsherren, radikal-islamischen Gruppen und Piraten. Somalia ist heute das Musterbeispiel eines zerfallenen Staates (engl. failed state).

An zwei Ereignisse aus der jüngsten Geschichte muss jeder denken, sobald er den Namen der somalischen Hauptstadt Mogadischu hört:
Beide Ereignisse haben sich dem Weltgedächtnis eingeprägt. Ging es 1977 um ein primär deutsches Ereignis im Zusammenhang mit der Entführung des Arbeitgeberpräsidenten Schleyer, so war es 1993 der Versuch der Weltgemeinschaft die Nahrungsmittelhilfe zu sichern und den Frieden wiederherzustellen. 

Nach langwierigen Verhandlungen konnte zwar 2004 eine Übergangsregierung (unter Präsident  Abdullahi Yusuf Ahmed) gebildet werden. Sie konnte sich aus Sicherheitsgründen jedoch nicht in Mogadischu niederlassen. Mitte 2006 eroberte die Union islamischer Gerichte Mogadischu und führte die islamische Rechtsordnung der Scharia ein. Das veranlasste Äthiopien dazu einzugreifen, was drei Jahre lang zu heftigen Kämpfen und vielen Flüchtlingen führte. Da Somalia an einer der für den Welthandel wichtigsten Schifffahrtsrouten liegt, wurde die Piraterie zu einem profitablen Geschäft. Über Hundert Schiffe wurden bisher mit Ladung und Besatzung in Geiselhaft genommen, um Millionenbeträge als Lösegeld zu erpressen. Allein im Jahre 2010 gab es über 200 Zwischenfälle und 47 gekaperte Schiffe. Erst in diesem Jahr konnte die Regierung Ahmed wieder in Mogadischu Fuß fassen. Deshalb können humanitäre Organisationen wieder Hilfsmittel über den Flughafen von Mogadischu einführen, falls sie dies möchten.

Nicht nur bezüglich des Einkommens, sondern auch in Bezug auf Kindersterblichkeit und Schulbildung ist Somalia eines der rückständigsten Länder der Welt. Die Sterblichkeit von Kindern unter fünf Jahren liegt in Somalia mit 225 von 1000 auf Rang 6 in der Welt. Bei der Müttersterblichkeit liegt das Land auf Platz 3. Etwa 13 % der Jungen und 7 % der Mädchen besuchen eine Schule. Dabei handelt es sich meist um private Koranschulen. Mangelernährung und Infektionskrankheiten sind verbreitet. Rund 70 % der Bevölkerung haben keinen Zugang zu sauberem Trinkwasser und medizinischer Versorgung. Die durchschnittliche Kinderzahl pro Frau liegt bei über 6, im Vergleich zu 1,39 in Deutschland. 

Soviel zu den einzelnen Ländern. In der Zusammenfassung muss man sagen, dass es sich hier um eine Weltregion handelt, die klimatisch sehr benachteiligt ist. Als Folge davon fand – außer in Äthiopien – der Übergang vom Nomadenleben zum sesshaften Bauernleben nie statt. Gleichzeitig wuchs die Bevölkerung in einem Maße, dass die nomadenhafte Nutzungsweise der kargen Böden sie gar nicht ernähren konnte. Im Vergleich zu den Ländern auf der andern Seite des Roten Meeres gab es keine Erdöl- oder Erdgasvorkommen, die sich ausbeuten ließen. Außer in Dschibuti hat sich ein Gesellschaftssystem etabliert, teils auf christlicher, teils auf muslimischer Basis, in dem weder die Schulbildung der Kinder noch die Gleichberechtigung der Frauen gefördert werden. Mehr und mehr wurde man von externer Hilfe abhängig. Die jeweiligen politischen Machthaber versäumten es, diese gerecht zu verteilen, ja sie weigerten sich teilweise sogar, diese überhaupt ins Land zu lassen.

Der oft von afrikanischen Politikern benutzte Vorwurf, dass ihre heutigen Probleme als Spätfolgen der Kolonisierung anzusehen seien, trifft nur teilweise zu. Die Milliarden, die der Westen bisher als Entwicklungshilfe investiert hat, sind offensichtlich verpufft. Sie führten nicht zum Aufbau eigener agrarischer oder wirtschaftlicher Strukturen. Die derzeit von China in großem Maße getätigten Investitionen dienen anscheinend mehr der Versorgung der chinesischen Wirtschaft mit Rohstoffen, als der Hilfe zur Selbsthilfe.

Im Moment strömen Tausende von hungerleidenden Flüchtlingen von Somalia nach Kenia. Natürlich müssen wir sie ernähren. Ebenso wichtig ist es, in ihren Herkunfts­ländern eine Strukturpolitik anzustoßen, die dafür sorgt, dass die Menschen in ihrer angestammten Heimat ein menschenwürdiges Auskommen finden. Es müssen also die Landstriche, die sich für eine agrarische Nutzung eignen, auch tatsächlich genutzt werden. Das Allerwichtigste ist, dass die betroffenen Länder sich selbst eine gute, verantwortungsvolle Regierung geben. Nur dieser können ausländische Geldgeber helfen. Ohne Regierung oder an der Regierung vorbei, geht es nicht.

Zusätzliche Referenz:
  1.  De Monfreid, H.: Mon aventure á l’île des forbans. Paris 1958

Mittwoch, 24. August 2011

Über Georg Forster (1754-1794) und die Französische Revolution

Dieses Mal beginne ich mit einem Zitat aus einem meiner vielen Reiseberichte [1]:

James Cook besuchte diese Insel [Raiatea] mehrfach. Georg Forster wunderte sich in seinem Reisebericht, warum in dieser von paradiesischem Überfluss bestimmten Landschaft, der König von Bora Bora sich veranlasst sah, Raiatea zu erobern. Die Natur des Menschen sei wohl doch nicht nur durch seine Bedürfnisse erklärbar. Raiatea bildet zusammen mit der Insel Tahaa eine große Lagune. Der emotionale Höhepunkt der ganzen Reise war die abendliche Ausfahrt aus dieser Lagune. Nicht nur versank die tropische Sonne im Meer, in weiter Ferne erschien schemenhaft das unverkennbare Bergprofil von Bora Bora.


Lagune von Tahaa

James Cook tat bekanntlich mehr für die Erkundung der Erde als irgendein anderer Entdeckungs­reisender vor ihm. Seine zweite Reise zwischen 1772 und 1775 sollte dazu dienen, den um den Südpol der Erde vermuteten Kontinent zu entdecken, ein Problem, das der britischen Admiralität sehr am Herzen lag. Mit an Bord waren Vater Reinhold Forster und sein 17-jähriger Sohn Georg. Cook war in letzter Minute auf sie gekommen, da der Wissenschaftler, der ihn bei der ersten Reise begleitet hatte (Sir Joseph Banks), darauf bestand eine Gruppe von Musikern mitnehmen zu dürfen, was Cook nicht akzeptierte. Beide Forsters hatten gute naturwissenschaftliche Kenntnisse und sollten alles Wissenswerte über die Beschaffenheit der zu entdeckenden Länder und die Eigenarten der Völker dokumentieren. 

Auf seiner dreijährigen Reise besuchte Cook unter anderem Neuseeland, die Tonga-Inseln, Neukaledonien, Tahiti, die Marquesas-Inseln sowie die Osterinsel. Obwohl er mehrmals weit über den südlichen Polarkreis hinaus vorgedrungen war, kam er zu dem sich später als falsch herausstellenden Ergebnis, dass es dort kein Land gäbe. Cook unternahm zwischen 1776 und 1779 eine dritte Weltreise, bei der er ums Leben kam.

Nach der Reise erhielt Reinhold Forster von der britischen Admiralität (unter dem Earl of Sandwich) keine Genehmigung sein sehr umfangreiches wissenschaftliches Material zu veröffentlichen. Nur der Sohn erhielt die Erlaubnis einen populär-wissenschaftlichen Reisebericht zu schreiben. Das 1778 erschienene Werk [2] war eines der frühesten Reisebücher überhaupt und machte den Autor berühmt. Immer wieder ergänzte er die Beobachtungen durch philosophische Betrachtungen über das Gesehene. Das ist nur zu verstehen, wenn man weiß, dass Georg Forster bereits als Zehnjähriger zusammen mit seinem Vater an einer Reise durch die  Kirgisensteppe am Unterlauf der Wolga teilgenommen hatte. Mit 13 Jahren gab er in England sein erstes Buch heraus, eine Übersetzung von Lomonossows ‚Kurze Russische Geschichte‘ vom Russischen ins Englische.


Reinhold und Georg Forster

Nach seiner Weltreise avancierte Forster nicht nur zum Liebling der Pariser Salons, wo man sich besonders für die Lebens- und Liebesgewohnheiten der Südsee-Insulaner interessierte. Auch die vornehme Royal Society in London nahm ihn 1777 als Mitglied auf. Ebenso taten dies die wissenschaftlichen Akademien von Berlin bis Madrid. Da die Ehrungen aber kein Geld einbrachten, suchte er nach einer festen Anstellung in Deutschland. Das erste Angebot, das er annahm, war in Kassel, wo er von 1778 bis 1784 an einer höheren Schule Naturgeschichte lehrte. Seit dieser Zeit stand er außerdem in regem Austausch mit den wichtigsten Vertretern des Geisteslebens in Deutschland, u.a. mit Lessing, Kant, Herder, Wieland und Goethe. Auch wurde er Mitglied einer Freimaurer-Loge.

Forster heirate 1785 Therese Heyne, die Tochter eines Göttinger Altertums­wissenschaftlers, die bereits als Schriftstellerin einen Namen hatte. Die Forsters hatten zwar drei Kinder, führten aber keine sehr glückliche Ehe. Schließlich verließen ihn seine Frau und die Töchter. Forster hatte um diese Zeit eine Professur für Naturgeschichte an einer Hochschule im polnisch-litauischen Wilna (dem heutigen Vilnius) inne. Die Tätigkeit dort sagte ihm allerdings wenig zu. Umso mehr freute es Ihn, als ihm die Leitung einer auf vier Jahre geplanten russischen Pazifik-Expedition angeboten wurde. Die Expedition kam jedoch nicht zustande, da 1787 der Russisch-Türkische Krieg ausbrach. 

Daraufhin nahm Forster 1788 – auf Anraten und durch Vermittlung seiner Freunde – die Stelle des Oberbibliothekars der Universität Mainz an. Weder die vorwiegend mit kirchlicher Literatur bestückte Bibliothek, noch die von Adel und Klerus dominierte kurfürstliche Residenzstadt begeisterten den nicht-adligen Protestanten. Ihm kam es vor allem darauf an, wieder in Deutschland zu sein, um den Kontakt mit seinen Freunden pflegen zu können. Als einer der ersten besuchte ihn Wilhelm von Humboldt, der gerade in Paris den Sturm auf die Bastille als Augenzeuge erlebt hatte. Im Frühjahr 1790 unternahm er gemeinsam mit Alexander, dem jüngeren der Humboldt-Brüder, eine ausgedehnte Reise, die ihn in die Österreichischen Niederlande (dem heutigen Belgien), nach Holland, England und Paris führte. Dort nahmen beide am 14. Juli an den Feiern zum Jahrestag der Revolution teil. Seine Eindrücke schilderte Forster in dem zwischen 1791 und 1794 erschienenen dreibändigen Werk [3]. Auch in diesem und späteren Büchern frönt er seiner Lust am Philosophieren. Hier einige Kostproben:

Nur der Geist, der selbst denkt und sein Verhältnis zu den Mannigfaltigkeiten um sich her erforscht, nur der erreicht seine Bestimmung.

Das sicherste Zeichen eines zerrütteten, schlecht eingerichteten, kranken Staats hat man immer darin, wenn er große Mengen Müßiggänger ernährt.

Die Empfindung, die das Schöne hervorruft, ist vom Reize unabhängig und durch keine Operation der Vernunft erklärbar.

Mäßigung ist die Tugend, die unserem Zeitalter am meisten fehlt.

Alles Gute geschieht langsam und allmählich. Nicht das verzehrende Feuer sondern die mild erwärmende Sonne leuchtet wohltätig, zerteilt die Dünste und fördert das schöne Wachstum organischer Wesen.

Reisen ist eine große unvergleichbare Quelle der sichersten Belehrung durch die eigenen Sinne.

Unwissenheit ist der große allgemeine Unterdrücker aller gesellschaftlichen Verträge, und diesen zu stürzen durch sanfte, wohltätige Verbreitung des Lichts der Vernunft, ist fürwahr die edelste Rache.


 Georg Forster 1792

Die Verhaftung des französischen Königs führte zum Angriff der vereinigten preußisch-österreichischen Truppen auf die Französische Republik. Nach der berühmten Kanonade von Valmy (am 20.9.1792), bei der Goethe zugegen war, zogen sich die Alliierten überraschend zurück. Im Gegenangriff stieß die französische Revolutionsarmee unter General Custine im Oktober 1792 bis Mainz vor. In Mainz war es bereits vor Eintreffen der Franzosen zu Ausschreitungen gekommen, in deren Verlauf auch das Universitätsgebäude verwüstet worden war. Auf Bitten seiner Freunde stellte sich Forster an die Spitze einer Bürgerdelegation, die mit General Custine verhandelte, um die Universität zu retten. Als die Franzosen den Mainzer Bürgern vorschlugen, eine eigene Republik zu gründen, wurde Forster zu deren Vizepräsidenten ernannt. Außerdem beteiligte er sich an der Gründung des Jakobinerclubs „Freunde der Freiheit und Gleichheit“ und ließ sich als Abgeordneter in den Rheinisch-Deutschen Nationalkonvent wählen. Es war dies das erste demokratisch gewählte Parlament in Deutschland.

Von Januar bis März 1793 war er Redakteur von „Die neue Mainzer Zeitung oder Der Volksfreund“ und schrieb mehrere Beiträge, in denen er die Revolution verherrlichte. Seine Aufrufe und Reden [4] aus der Zeit der Mainzer Republik zeugen von sehr viel Idealismus. Sie regen heute noch zum Nachdenken an:

Die Zeit wird kommen, wo man den Wert des Menschen weder nach angeborenem noch nach zufälligem Range, weder nach Macht noch nach Reichtum, sondern allein nach Tugend und Weisheit schätzen wird.

Irgendwann muss das Gute doch zuerst an den Tag kommen und sich über die ganze Erde verbreiten. Ein Mainzer erfand die Buchdruckkunst und warum nicht ein Franke die Freiheit des 18. Jahrhunderts?

Wir rücken nicht, bis Freiheit und Gleichheit und die unumstößlichen Grundsätze menschlicher Glückseligkeit anerkannt sind.

Unvollkommenheit und Irrtum sind allenthalben der Menschen Los. Unsittlichkeit und Unverstand aber sind im Durchschnitt nur Resultate der Unwissenheit und Untätigkeit.

Im Verlaufe des Jahres 1793 veränderte die Französische Revolution radikal ihren Charakter. Es begann mit der Hinrichtung Ludwigs XVI. im Januar, über die Übernahme des Wohlfahrtsausschusses durch Robespierre im Juni, der Ermordung Marats im Juli, und endete mit der Hinrichtung Marie Antoinettes und der Gironde-Führer im Oktober, und dem Ersatz des Christentums durch den Kult der Vernunft im November. Eine Zeit des brutalen Terrors brach aus.

Im März 1793 hatte der Rheinisch-Deutsche Nationalkonvent die Loslösung der Mainzer Republik vom Deutschen Reich beschlossen. Forster und zwei weitere Mitglieder des Nationalkonvents wurden nach Paris entsandt, um die Angliederung an Frankreich zu beantragen. Der Antrag wurde zwar vom französischen Konvent einstimmig angenommen, hatte sich aber durch die im Juli 1793 erfolgte Rückeroberung von Mainz durch die Truppen der preußisch-österreichischen Koalition erledigt. Aufgrund eines Dekrets Kaiser Franz II., das die Zusammenarbeit deutscher „Untertanen“ mit der französischen Revolutionsregierung unter Strafe stellte, verfiel Forster der Reichsacht und konnte nicht mehr nach Deutschland zurückkehren. Völlig mittellos und ohne seine Frau und seine Kinder blieb er in Paris. 
 
Im Gegensatz zu vielen anderen deutschen Befürwortern der Revolution, wie etwa Friedrich Schiller, wandte sich Forster selbst unter dem Eindruck des Terrorregimes nicht von den revolutionären Idealen ab. Er sah die Ereignisse in Frankreich als ein Naturereignis an, das man nicht aufhalten könne und das seine Energien freisetzen müsse, um nicht noch zerstörerischer zu wirken. Noch kurz vor seinem Tod schrieb er:

Die Revolution ist ein Orkan. Wer kann ihn hemmen? Ein Mensch, durch sie in Tätigkeit gesetzt, kann Dinge tun, die man in der Nachwelt nicht vor Entsetzlichkeit begreift.

Georg Forster starb im Januar 1794, noch nicht 40jährig, an einer Lungen­entzündung in einer kleinen Dachwohnung in Paris. Sieben Monate später besetzten französische Revolutionstruppen Trier und das übrige Rheinland und blieben bis 1814.

Zusätzliche Referenzen:
  1. Endres, A.: In achtundzwanzig Tagen um die Welt (Frühjahr 2006). In: Gunst und Kunst des Reisens. Geschautes und Erlebtes aus sechs Jahrzehnten spannender Weltreisen. Sindelfingen: Eigenverlag 2009. Näheres auf Homepage des Autors.
  2. Forster, G.: Entdeckungsreise nach Tahiti und in die Südsee 1772-1775. Tübingen 1979 (Nachdruck)
  3. Forster, G.: Ansichten vom Niederrhein, von Brabant, Flandern, Holland, England und Frankreich im April, Mai und Juni 1790. Berlin 1793
  4. Jäckel, G. (Hrsg.): Der Freiheitsbaum. Die Französische Revolution in Schilderungen Goethes und Forsters 1792/93. Berlin 1983

Sonntag, 21. August 2011

Amerika mag (derzeit) die Selbstkritik

Am 20.8.2011 schickte mir mein Freund und Ex-Kollege Calvin Arnason aus Portland, Oregon, die folgenden beiden, von ihm stammenden Buchbesprechungen. Mit seiner Erlaubnis gebe ich sie hier wieder. Mein eingefügter Link verweist auf Besprechungen derselben Bücher in der NY Times.


The CIA book received a National Book award in 2007 and Weiner got a Pulitzer Prize for previous reporting work on the Pentagon and CIA. He met and interviewed the majority of CIA “executives”. The conclusions I make from this book are:

-     US history (especially foreign affairs) during my lifetime (born 1947) is very little known by US citizens.  Amazing anecdotes!
-     The CIA from its beginning after WW II up through George Tenet’s WMD “Slam Dunk” is permeated with incompetence, arrogance, corruption, treachery, and ineffectiveness.
-     As an intelligence service, the CIA has a nearly perfect record of providing data that does not in any way deserve the word “intelligence” ... over and over again, whenever it was really important, the data was usually wrong, often thoroughly wrong and misleading.
-     The CIA was encouraged in the belief that it was not bound by any law, either US or international…by a succession of US Presidents.  As long as covert operations did not become public, there was no problem. That attitude bred some really crazy ideas.

One particular example I list here – the CIA funded an attempted coup of right wing army officers against Indonesian President Sukarno in the 1960s (an American bomber pilot was shot down, captured, and sentenced to death in the process) while the State Department attempted to assist Sukarno (because they did not know that the CIA was working the other side).  Robert Kennedy personally apologized to Sukarno in Jakarta for the fiasco and brought him a couple of kazillion dollars as peace offering. Reread point #1.



This book is the story of the US Ambassador to Germany in 1933, Dodd, who took his family (wife and two grown children) to Berlin and interacted politically with all the beastly luminaries of that time of Schrecken – his daughter was sexually intimate with a number of them (e.g., early head of Gestapo) and others in Berlin.  

There are many illuminating anecdotes that throw light on the difficulty of understanding ones own time.  So many people could see then, right in front of their eyes, what was happening in Germany.  But they could not understand and evaluate it.  And those who saw it and understood it were all either perpetrators or else in danger of going mad themselves.  These were a very small minority.  Most visiting Americans were delighted with Berlin at the time.

If we could look back at our own time right now in 2011 from a distance of 80 years in the future, what would be the glaringly obvious that is not being appreciated?  No one in America saw the failure of the Soviet Union coming.  And yet after it happened, most economists said, “Well, of course, central planning – it was destined to fail.”  What are WE not seeing? 

I will venture one surmise on this subject – I believe that we will see growth (in the long term) of communities that are access controlled, smaller, more insular and dense, and more homogeneous.  Why is the incidence of urban riot mobs increasing in Europe?  Why did the United States see so much of it in the late 1960s and 1970s?  Why did it stop after that? Lack of faith in government is a sign of missing moral authority.  Low approval ratings for our government and institutions (banking, education, justice) are a sign of impending peril.

Für diejenigen Leserinnen und Leser, die Calvin nicht kennen, nur so viel. Er kam Ende der 1960er Jahre als Student nach Göttingen, heiratete eine Deutsche und blieb bis etwa zum 50. Lebensjahr in Deutschland. Seit Jahren lebt er mit Frau, Kindern und Enkelkindern im Westen der USA. Wer ein LinkedIn-Konto hat, kann sich dort über sein aktives Rentnerdasein genauer informieren. Besonders beeindruckt er seine Freunde als virtuoser Interpret der Klavierwerke von Brahms, Mozart und Schumann.

Samstag, 20. August 2011

Sind Computerspiele noch der Renner?

Anlässlich der Gamescom-Messe in Köln hörte man unterschiedliche Zahlen zur Situation der Spiele-Industrie. Es geht hier natürlich um Computerspiele. BITKOM meinte, dass das Geschäft sich zwar weiter ausweite, es aber umsatzmäßig stagniere. Erklärt wird dies mit dem hohen Anteil kostenlos angebotener Spiele. Der Verband der Spiele-Entwickler, der Bundesverband Interaktive Unterhaltungs­software e. V (BIU) sprach dagegen weiterhin von deutlich steigenden Zahlen, wobei in diesem Falle nur die Software, nicht jedoch die Hardware (also die speziellen Spiele-Konsole) hinzu gerechnet wurden. Übereinstimmend sprachen beide von einem Geschäft in Deutschland in der Größenordnung von 2-3 Mrd. Euro pro Jahr. Es soll etwa 150 Unternehmen in Deutschland geben, die Spiele entwickeln, mit insgesamt 10.000 Mitarbeitern. Weitere 100 Firmen sind indirekt beteiligt, primär an Publikation und Vertrieb. Der Anteil der aus den USA oder Asien (Japan, Südkorea, Taiwan) importierten Spiele ist weiterhin sehr hoch. Neuerdings fallen auch Anbieter aus Russland auf.

Über die Nutzer von Computerspielen konnte man bei BITKOM dieser Tage Folgendes lesen:

Inzwischen haben auch Frauen die Games-Welt für sich entdeckt: 29 Prozent der Frauen spielen, gegenüber 34 Prozent bei den Männern. Ein deutlicheres Gefälle gibt es dagegen noch zwischen den Generationen. Am populärsten sind die Computer- und Videospiele bei den 14- bis 29-Jährigen. Knapp 73 Prozent spielen in dieser Altersklasse digital. Doch auch bei Älteren werden Games immer beliebter: 15 Prozent der Menschen zwischen 50 und 64 Jahren spielen Video- und Computerspiele und immerhin fünf Prozent der über 65-Jährigen….Am beliebtesten sind Denk-, Strategie- und Managementspiele. 32 Prozent der Gamer spielen sie. Social Games boomen und haben sich innerhalb eines Jahres auf 24 Prozent verdreifacht….Fitnessspiele steigern sich auf 15 Prozent – [ebenfalls] eine Verdreifachung innerhalb eines Jahres.

Eine aktuelle Pressemitteilung der Gamescom enthielt einige absolute Zahlen zur Situation in Deutschland:

Vor allem der Computer steht bei den Deutschen als Gaming-Plattform hoch im Kurs: Insgesamt 17,2 Millionen Deutsche, also jeder Vierte, verwenden den PC oder Mac zum Spielen. 9,2 Millionen nutzen zusätzlich – oder ausschließlich – eine der gängigen Heimkonsolen von Sony, Microsoft oder Nintendo zum Spielen, weitere 6,7 Millionen eine mobile Spielkonsole wie Nintendo DS oder PlayStation Portable.

Meine persönlichen Erfahrungen (ich gehöre zur Kategorie der über 65-jährigen) beziehen sich vorwiegend auf Smartphones. Auf Großrechnern und am PC habe ich mir hin und wieder Spiele angesehen, aber nie ernsthaft und länger benutzt. Anders ist dies bei meinen Enkelkindern. Bei ihnen sind PC-Spiele sehr beliebt. Deshalb zitiere ich im Folgenden die sehr kompetente Auskunft meines 14-jährigen Enkels Marcus:

Obwohl viele Teenager meiner Altersklasse Konsolen wie PlayStation, Wii und sonstiges bevorzugen, sind Computerspiele dennoch sehr beliebt. Man sollte die Computerspiele in drei größere Klassen unterteilen: Strategie, Rollenspiele und Simulation. Zu Strategie zählen Spiele wie ‚Age of Empires‘, ‚Civilization‘, ‚Stronghold‘ und die Siedler. Rollenspiele teilen sich in weitere Kategorien auf, was meist von der Perspektive abhängt. So gibt es die Vogelperspektive, die eigentlich für Strategiespiele üblich ist. Am bekanntesten ist die Rückenansicht, die auch als Ego-Shooter-Sicht bezeichnet wird, wobei diese nicht nur bei wildem Geballere, sondern auch oft bei Detektivspielen verwendet wird. Letztere sind jedoch nicht sehr verbreitet und haben nur wenige Anhänger.

Nun zu den Simulationen. Neben der neuen Simulationsserie mit Spielen wie Bus-Simulator, Schiffs-Simulator usw., die zurzeit den Markt überschwemmt und eher Fans bei den jüngeren Spielern findet, gibt es auch noch ältere erfolgreiche Spiele wie die ‚Sims‘, die bereits drei Teile veröffentlicht haben. Diese treffen hauptsächlich bei Spielerinnen auf Begeisterung. Als kleinere Kategorie gibt es noch eine Mischung aus Simulation und Strategie, wie ‚Zoo-Tycoon‘ oder Hotelgigant, welche mit Features locken, wie z.B. der Leiter eines ganzen Zoos zu sein. Neben den strategischen Elementen, wie der geschickten Platzierung von Gebäuden oder Zoogehegen, kann man ebenfalls einfach in ein (in diesem Fall) Gehege reinzoomen und seine Tiere beobachten. Alle Kategorien haben beliebte Spiele hervorgebracht, welche im Web etliche Foren haben, in denen über Chats Tipps und Tricks diskutiert werden. 

Und schon kommen wir zum nächsten Punkt: Wie wird ein Spiel zum Klassiker? Das wichtigste ist den Spielern hierbei die Langzeitmotivation, die Grafik der Details, und natürlich wie originell ein Spiel ist. Was ebenfalls seit den letzten Jahren sehr beliebt geworden ist, ist die Möglichkeit online zu spielen, so dass man z.B. mit seinen Freunden gemeinsam Schlachten schlägt oder Monster bezwingt. So bekommen Spiele wie ‚World of Warcraft‘ eine Fangemeinde von über 11 Mio. Spielern.

Persönlich spiele ich, wie viele andere, von Allem etwas. Ich habe kein ultimatives Lieblingsspiel, So spiele ich manchmal ‚Sims 2‘, dann wieder ein nettes Rollenspiel und einen Monat später habe ich wieder Lust auf ein Strategiespiel. So geht es immer in Phasen weiter. In jeder einzelnen Kategorie habe ich meine Favoriten. Bei Strategiespielen würde ich jedem ‚Empire Earth‘ empfehlen. In diesem Spiel kann man eins von vielen Völkern durch 15 spannende Epochen führen, von der Steinzeit bis hin zur fernen Zukunft. Was mir persönlich auch sehr gefällt, ist die Möglichkeit, selbst kreativ zu werden und ein eigenes Szenario zu kreieren. Für die Fantasy-Fans empfehle ich ‚Der Herr der Ringe, die Schlacht um Mittelerde‘, da es sehr detailgetreu ist und sogar Originalstimmen aus dem Film aufweist. Als Simulation ganz klar ‚Sims‘ (aber ich kenne nicht besonders viele Spiele in dieser Kategorie). Als Rollenspiele kann ich ‚Gothic 3‘ oder ‚Avatar‘ empfehlen aufgrund der guten Grafik, der Action und dem gelungenem Gameplay. Als eins meiner Lieblingsspiele empfehle ich noch ‚Spore‘, was eine Mischung aus Simulation, Strategie und Rollenspiel ist. Das Beste an dem Spiel ist, dass man sich kreativ ausleben kann.

Seinen Nachsatz möchte ich natürlich nicht unterschlagen, da darin auch ein Angebot für meine Leser steckt:

PS: Ich hoffe Du kannst hiermit etwas anfangen. Falls Du einen speziellen Teil genauer erläutert haben willst, stehe ich gerne zu weiteren Fragen zur Verfügung.

Ich selbst (d.h. der Opa) teile die Spiele auf meinem Smartphone in drei Gruppen ein, unabhängig davon, ob sie kostenlos sind oder für weniger als einen Euro zu erwerben sind. Die erste und wichtigste Gruppe sind solche, die ich immer wieder benutze. Zur Gruppe 2 rechne ich solche, die ich zwar heruntergeladen und versucht habe, die mir aber zu schwierig waren. Zur dritten Gruppe zähle ich solche, die ich versucht habe, die mir aber auf Dauer zu läppisch vorkamen. Ich will einige Beispiele aus allen drei Gruppen kurz besprechen. Es sind alles Einzelpersonen-Spiele.

Gruppe 1: Anregende und unterhaltende Spiele

Fast täglich spiele ich Solitär (auch Klondike genannt). Schon meine Mutter spielte stundenlang dieses Spiel mit 52 Karten. Sie nannte es Napoléon. Das Spiel wirkt sehr entspannend.

Nummer 2 ist Sudoku. Da man auf Fehler sofort hingewiesen wird, kann man auch schon mal eine Lösung ausprobieren, etwas was bei der Papierversion nicht geht. Es gibt vier Schwierigkeitsgrade: Leicht, Mittel, Schwer und Experte. Für jede Stufe wird eine Zeitstatistik geführt mit Durchschnitts- und Bestzeiten. Meine Bestzeiten veränderten sich nur in den ersten 2-3 Monaten, jetzt kommt es kaum noch vor.

Wissens-Trainer ist ein Quiz-Spiel ähnlich der Fernsehserie ‘Wer wird Millionär’. Die Fragen stammen aus zehn Fachgebieten: Film, Geografie, Geschichte, Literatur, Musik, Politik, Sport, Technik, Wissenschaft und Vermischtes. Man erhält nach jedem Spiel eine Beurteilung. Auch kann man sich die langfristigen Leistungen auf einzelnen Fachgebieten ansehen, und sich ggf. nachschulen lassen. 

Cut the Rope: Das ist ein sehr originelles Geschicklichkeitsspiel. Schneidet man ein Seil, so fällt eine Süßigkeit in den Rachen einer Kröte, aber nur, wenn man geschickt ist. 

Gruppe 2: Schwierige, ja frustrierende Spiele

iChess ist eines von vielen Schachspielen. Es hat das Niveau eines Bezirksmeisters. Ich verliere immer, es sei denn ich lasse mir helfen.

Labyrinth: Es gibt viele Spiele, in denen man eine Kugel durch ein Hindernisfeld rollen lässt, indem man das Handy balanciert. Es beginnt ganz einfach, steigert aber den Schwierigkeitsgrad so, dass man bald nicht mehr gewinnen kann.

Tischtennis: Auch sehr schön am Anfang, danach monoton und sehr viel Geduld verlangend.

Gruppe 3: Triviale Spiele

Tic Tac Toe: Dieses Spiel erinnert mich an ein ähnliches Spiel, das um 1956 auf der IBM 650 zur Verfügung stand. Wer anfängt, gewinnt, es sei denn er passt nicht auf. 

Türme von Hanoi: Der Klassiker, an dem Informatiker das Prinzip der Rekursivität erklärt bekommen. Man spielt gegen die Zeit.

Zurück zur Frage im Titel. Ich bin überzeugt davon, dass der Spielemarkt sein Potenzial noch längst nicht ausgeschöpft hat. Jede neue Technologie stellt neue Anforderungen an die Spieleentwickler. Im Moment sind es die Smartphones. Auch müssen Marktteilnehmer sich laufend neue Geschäftsmodelle ausdenken. Wenn marktbeherrschende Unternehmen wie Apple oder Google in der Lage sind, gewisse Arten von Software zu verschenken, muss man darauf reagieren. Computer und Spiele gehören einfach zusammen. Menschen wollen spielen, denn nur das vertreibt die Langeweile. Und Langeweile ist schlimmer als manche Krankheit.

Noch mehr als die Informatik im Allgemeinen sind Spielehersteller der Kritik ausgesetzt, dass ihre Produkte bei bestimmten Personengruppen zu Fehlverhalten, ja Abhängigkeit und Sucht führen können. Hier kommt es darauf an, durch sachgemäße Aufklärung dafür zu sorgen, dass die Darstellung der Vorteile nicht zu kurz kommt. Computerspiele sind nämlich auch dazu geeignet, die intellektuellen Fähigkeiten junger Menschen zu trainieren und ihr Sozialverhalten positiv zu beeinflussen. Etwas Interesse von Seiten der Erwachsenen kann da nicht schaden.

Donnerstag, 18. August 2011

Über die Dynastie der Luxemburger

Als ich vor Jahren im Frankfurter Rathaus vor den Wandbildern der deutschen Kaiser stand, suchte ich sofort die Luxemburger heraus. Nicht nur haben sie eine besondere Beziehung zu meiner Heimat im Kreis Bitburg (wir gehörten bis 1815 zu Luxemburg), einige von ihnen waren auch recht interessante Persönlichkeiten. Die drei Kaiser und zwei Könige aus dem Hause Luxemburg regierten insgesamt keine 50 Jahre, überspannten aber einen Zeitraum von 130 Jahren. Das ist länger als bei den Sachsen, den Saliern und den Staufern. Nur die Habsburger übertrafen sie. Es sind vor allem drei Aspekte, die mich als Amateur-Historiker an dieser Phase der Geschichte besonders interessieren:
  • Wo liegen hier Berührungspunkte zwischen Heimat- und Weltgeschichte?
  • Wie verhielten sich die Ambitionen dieses Herrscherhauses zu dem, was sie erreichten?
  • Welche Facetten der mittelalterlichen Welt- und Gesellschaftsordnung kommen hier besonders zum Ausdruck?
Auf genau diese Fragen wird sich der folgende Essay konzentrieren. Wie bei den bereits in diesem Blog gebrachten historischen Skizzen, knüpfe ich an früheren Veröffentlichungen an, oder nehme Bezug auf persönliche Kontakte oder Erlebnisse.


Regierungszeiten der Luxemburger Herrscher

Die Regierungszeiten der betreffenden Herrscher sind in der obigen Tabelle gegeben. Dabei ist unterschieden zwischen der Herrschaftsperiode in der Grafschaft Luxemburg, als deutscher bzw. böhmischer König und als römischer Kaiser. Anfangs wurde die Grafschaft in Personalunion geführt. Später übernahm ein anderer Zweig der Familie die Grafschaft, aus der dann ein Herzogtum und später ein Großherzogtum wurden. Der böhmische König war in der fraglichen Zeit auch Titular-König von Polen.

Wie oft in Familiendynastien wurde die Basis des Unternehmens von der ersten Generation gelegt. In diesem Falle war dies Heinrich VII zusammen mit seinem jüngeren Bruder Balduin. Heinrichs Aufstieg ist ein Lehrstück mittelalterlicher Politik. Sein Schicksal ist eine Tragödie. Wie ich in einem heimatgeschichtlichen Text [1] schrieb, war es ein Triumvirat, das damals die Finger an den Hebeln der Macht hatte: 

An erster Stelle ist Graf Heinrich VII. zu nennen. Er soll sehr geschäftstüchtig gewesen sein (was man ja heute noch gerne den Luxemburgern nachsagt). Er setzte zunächst den Streit mit [dem Kurfürstentum] Trier fort. Das änderte sich erst, als er es schaffte, seinen jüngeren Bruder Balduin (frz. Baudouin) im Alter von 20 Jahren zum Erzbischof und Kurfürsten von Trier wählen zu lassen. Dieser hatte danach das Amt 47 Jahre lang (1307-1354) inne und wurde eine der einflussreichsten Persönlichkeiten seiner Zeit. Der dritte im Bunde war Peter von Aspelt, ein Luxemburger auf dem Thron des Erzbischofs und Kurfürsten von Mainz. Zunächst wurde Heinrich VII. im Jahre 1308 auf Betreiben der Kurfürsten von Trier und Mainz zum deutschen König gewählt und vom Kölner Bischof in Aachen gekrönt. Im Jahre 1312 wurde er außerdem römischer Kaiser.

Dass Heinrich VII. in historischen Perspektiven dachte, geht unter anderem daraus hervor, dass er den Dom von Speyer, in dem bisher nur die salischen Kaiser ruhten, wieder zur Grablege deutscher Kaiser machen wollte. Nicht nur sollten er und seine Nachkommen dort eine würdige Stätte der Erinnerung und Verehrung finden, sondern bereits sein Vorgänger. Er ließ deshalb den Leichnam Albrechts I, des ersten Habsburgers, aus dem schweizerischen Aargau nach Speyer verlegen.


Graf Heinrich VII.

Gleich nach seiner Wahl erledigte er die wichtigste dynastisch-strategische Transaktion seines Lebens. Er verheiratete seinen 14-jährigen Sohn Johann, der am französischen Hof in Paris erzogen worden war, mit der Erbin der böhmischen Königskrone. Sie hieß Elisabeth und war die Schwester des gerade ermordeten Königs von Böhmen und vier Jahre älter als ihr zukünftiger Bräutigam. Nach der Niederschlagung der opponierenden Stände durch Trierische Truppen wurde Johann im Februar 1311 von Peter von Aspelt in Prag zum böhmischen König gekrönt. Übrigens hätte Heinrich lieber seinen Bruder Walram auf dem böhmischen Thron gesehen. Aber der böhmische Adel dachte anders. Das politische Ziel, sich ein Gegengewicht zum Hause Habsburg zu schaffen, könne mit einem Kinde aus einer fernen Dynastie ebenso gut erreicht werden wie mit einem erwachsenen Mann. Nur lässt ein Kind sich erheblich leichter nach den eigenen Wünschen formen und schränkt einen selbst weniger ein. Das ist derselbe Grund, warum heute in der EU manchmal schwache Kandidaten bevorzugt werden

Bereits ein Jahr nach der Hochzeit seines Sohnes begab sich Heinrich nach alter, auf Karl den Großen zurückgehender Tradition auf einen Italienfeldzug. Er wollte nach denjenigen Titeln greifen, die man sich persönlich in Italien abholen musste, nämlich die eiserne Krone der Langobarden, die silberne Krone des Königs der Römer sowie die goldene Krone des Kaisers des ‚Heiligen Römischen Reiches deutscher Nation‘. Der rechtliche Anspruch auf diese Titel ergab sich einzig und allein aus der Wahl zum deutschen König. Nur für die Krönung, also die formelle Verleihung, musste man nach Mailand bzw. nach Rom reisen.

Dieser Feldzug wurde Heinrich zum Verhängnis. Er dauerte fast zwei Jahre, und zwar von Oktober 1311 bis August 1313. Mit nur 5000 Mann von Bern aus losmarschierend, erfuhr er nicht nur großen Widerstand durch die meisten italienischen Städte. Er hatte hohe, kampf- und krankheitsbedingte Verluste unter seinen Truppen zu verzeichnen. Unter anderem verlor er seinen Bruder Walram im Kampf um Brescia. Seine Frau Margarethe von Brabant, die ihn begleitete, starb in Genua. Nur sein Bruder Balduin, der als Kurfürst und Bischof von Trier nicht nur ein wesentliches Truppenkontingent stellte, sondern vor allem für die Kriegskasse verantwortlich war, hielt zu ihm bis zum bitteren Ende. Da der Papst zu diesem Zeitpunkt bereits in Avignon residierte, erfolgte die Krönung in Rom durch drei italienische Kardinäle. Die Krönung war am 29. Juni 1312, dem Festtag Peter und Paul. Auf dem Rückweg gab es sowohl Huldigungen (in Arrezzo) wie Brandschatzungen (von Perugia) und vergebliche Belagerungen (z.B. von Florenz), je nach der Zugehörigkeit zu einer kaiser- oder papsttreuen Partei (Ghibellinen bzw. Guelfen). Nach einem Winterlager bei Pisa wandte man sich Anfang 1313 einem neuen Gegner zu, dem bis nördlich von Rom reichenden Königreich Neapel. Es stand damals unter der Herrschaft der Familie Anjou, eines französischen Adelsgeschlechts. 

Heinrich erkrankte und starb am 24. August 1313 in Buonconvento südlich von Siena. Von dort brachte man seinen Leichnam nach Pisa, wo er bestattet wurde. Der Bruder und der Rest des Heeres begaben sich auf dem Seeweg nach Genua und von dort nach Hause. Sein Sohn Johann soll später versucht haben, die sterblichen Überreste seiner Eltern nach Speyer zu überführen, hatte aber keinen Erfolg. Im Jahre 2008 habe ich das Grabdenkmal Heinrich VII. im Dom zu Pisa besucht. Es ist einschließlich des Bogens etwa sieben Meter hoch und wurde 1315, also zwei Jahre nach seinem Tode von Tino di Camaino geschaffen.


Grab Kaiser Heinrichs VII. im Dom zu Pisa

Da dem Bruder eine adäquate Erinnerungsstätte in Deutschland versagt blieb, ließ Kurfürst Balduin eine Bilderhandschrift [2] als Dokumentation der Romreise erstellen. Sie besteht aus 37 Bögen mit 73 Bildern. Der Stil deutet auf ein Atelier in Paris hin. Sie ist in der Zeit zwischen 1330 und 1350 entstanden. Der Bilderkodex ist ein einmaliger Beleg dafür, wie im Spätmittelalter Politik veranschaulicht, ja inszeniert wurde. Ereignisse, die dargestellt wurden, sind Einritte in Städte, Huldigungen durch die Bürger, Belagerungen, Erstürmungen, Krönungen, Eidesleistungen, Festmähler, Gerichtsszenen, Hinrichtungen und Begräbnisse. Außer dem dramatisch dargestellten Kampf um Mailand mit anschließender Gerichtssitzung (Folio 10) habe ich noch den Ritt durch Rom nach der Kaiserkrönung und das anschließende Festmahl (Folio 24) ausgewählt. Im oberen Bild dieses Blattes trifft er mit Vertretern der jüdischen Gemeinde Roms zusammen (an spitzen Hüten zu erkennen) und bestätigt ihnen ihre Privilegien. Das untere Bild zeigt eine Besonderheit des Luxemburger Hofzeremoniells, nämlich die von einem Reiter bei einem Festmahl aufgetragenen Speisen. Außerdem ist ein Turnier angedeutet


 
Kampf um Mailand und Gerichtssitzung (Folio 10)

Kurfürst Balduin war übrigens ein sehr effizienter Regent. Er wollte nicht nur wie Josef in Ägypten dafür sorgen, dass die Speicher voll Korn und die Keller voll Wein waren, sondern dass die Verwaltung seines Territoriums einwandfrei funktionierte. So steigerte er unter anderem die Zolleinnahmen auf dem Rhein durch den Bau einer Zollstation in Koblenz. Außerdem nahm er Steuern von Pilgern, die nach Trier zum Grab des Apostels Matthias kamen.

Beim Tode seines Vaters war Johann der Blinde erst 17 Jahre alt und wurde bei der Wahl des deutschen Königs übergangen. Stattdessen kam Ludwig der Bayer zum Zuge. Nach anfänglichen Schwierigkeiten konnte Johann seine Macht in Böhmen festigen. Seine Versuche, die Hausmacht der Luxemburger über Böhmen hinaus auszuweiten, hatten jedoch wenig Erfolg. Der Beiname der Blinde stammt von einer Augenentzündung, die im Alter von 40 Jahren dazu führte, dass er auf dem rechten Auge erblindete. Nach einem medizinischen Eingriff ins linke Auge verlor auch dieses seine Sehkraft. Dennoch sah er es als seine Pflicht an, dem befreundeten französischen König im Krieg gegen England beizustehen. Mit Ketten verbunden ließ er sich zwischen zwei Rittern in die Schlacht von Crécy führen. Auch in meiner Heimatgeschichte [1] kommt diese Schlacht vor, da der lokale Luxemburger Adel in Mitleidenschaft gezogen wurde. Das gleiche gilt für die Schlacht von Worringen (1288) im Limburger Erbfolgekrieg.

Walter IV. [von Meisenburg, der Besitzer von Schloss Niederweis] starb am 28. August 1346 in der Schlacht von Crécy an der Somme genauso wie sein Landesherr Johann der Blinde. In dieser Schlacht des Hundert-jährigen Krieges zwischen England und Frankreich kämpften 500 Luxemburger Ritter auf der Seite des französischen Königs Philipp VI. Die englischen Bogenschützen erwiesen sich den in traditioneller Ritterrüstung kämpfenden Franzosen überlegen und töteten 6.000 Ritter und 20.000 Pikeniere (mit der Pike kämpfende Fußsoldaten).

Johann erhielt eine Grabstätte in Kastel-Staadt an der Saar, wo sein Leichnam bis nach dem zweiten Weltkrieg ruhte. König Friedrich Wilhelm III. von Preußen ließ die Grabkapelle 1833 durch seinen Hofarchitekten Friedrich Schinkel neugestalten. Im Jahre 1946 wurde Johanns Leichnam in die Stadt Luxemburg überführt.


Ritt durch Rom und Festmahl (Folio 24)

Johanns ältester Sohn, der spätere Kaiser Karl IV., war wie sein Vater am Hofe in Paris aufgewachsen. Er war im Frühjahr 1346 bereits zum Deutschen König gewählt worden, wurde aber erst 1349 offiziell gekrönt. Nach dem Tode des Vaters wurde er auch Böhmischer König. Er zögerte zunächst sich um die italienischen Titel zu bemühen, ließ sich dann doch dazu überreden, unter anderem von Petrarca. Er gewann sie ganz ohne Kriegszüge, nur durch geschicktes Verhandeln (inkl. Geldspenden). Er durfte schließlich mit 5000 Getreuen am Ostersonntag 1355 in Rom einziehen. Da es auf dem Rückweg sowohl in Florenz wie in Pisa zu Aufständen kam, begab er sich – das Schicksal des Großvaters vor Augen – schnellstens über die Alpen zurück. 

Karl IV. wurde die ungewöhnlich lange Regierungszeit von 32 Jahren vergönnt. Nicht nur deshalb wurde er einer der bekanntesten deutschen Kaiser überhaupt. Er machte seine Residenzstadt Prag zu einer der blühendsten Metropolen Europas. Als Tourist begegnet man Karl in Prag heute auf Schritt und Tritt, beginnend mit der Karlsbrücke und endend in der mächtigen Burganlage auf dem Hradschin. In meiner Dorfgeschichte [1] kommt er ebenfalls vor.

Im Jahre 1349 musste Balduin auch Karl IV. aus Geldnöten helfen. Er erhielt dafür die ganze Grafschaft Luxemburg als Pfand. … [Karl IV.] legte mit der Goldenen Bulle die Verfassung des deutschen Reiches fest, gründete in Prag die erste mitteleuropäische Universität und befahl der Stadt Luxemburg, „über Mittel zu beraten, damit Juden sich ruhig und sicher in der Stadt niederlassen und darin leben können“. Nach der Vereinigung mit Brabant erhob er die Grafschaft Luxemburg zum Herzogtum.

Karl war ausgesprochen erfolgreich darin, seine Hausmacht systematisch zu vergrößern [3]. Nachdem die böhmische Oberhoheit über Schlesien und die Niederlausitz (die sein Vater vorübergehend besessen hatte) gesichert war, kaufte er den Wittelsbachern die Mark Brandenburg ab. Er erhielt damit eine zweite Kurwürde für sein Haus. In Brandenburg betätigte er sich als Kolonisator und erbaute die Stadt Tangermünde. Die Heirat seines Sohnes Sigismund mit der Erbin König Ludwigs I. von Ungarn sicherte den Luxemburgern später auch dieses Königreich. Als einer der wenigen Herrscher seiner Zeit hinterließ er eine Autobiographie, in der er sein Leben bis zur Königskrönung beschreibt. Er sah sich selbst als Auserwählter und von Gott beschützt.

  
Karl IV., Wenzel und Sigismund im Frankfurter Rathaus

Nach Karls Tod wird sein ältester Sohn Wenzeslaus I. (kurz Wenzel genannt) zum Deutschen König gewählt. Er war das schwarze Schaf in der Dynastie und hatte den Beinamen ‚der Faule‘. In der Geschichte des Hl. Johann von Nepomuk spielte er die Hauptrolle, da er ihn angeblich in die Moldau werfen ließ, weil er ihm die Beichtgeheimnisse seiner Frau nicht habe preisgeben wollen. In Wahrheit ging es um politische Differenzen. Wenzel soll die meiste Zeit auf der Jagd verbracht haben (wie auch im Frankfurter Bild dargestellt). Er war vermutlich Alkoholiker und wurde wegen Untätigkeit von den deutschen Kurfürsten des Amts enthoben. 

Nach einer Pause von 10 Jahren kamen die Luxemburger noch einmal zum Zuge, und zwar mit Sigismund. Er war ein Sohn Karls IV. aus vierter Ehe und Stiefbruder Wenzels. Unter ihm erreichte das vom Hause Luxemburg kontrollierte Territorium seine größte Ausdehnung. Es ging sogar weit über die Ostgrenze des Reiches hinaus. Die Liste der Titel, die Sigismund führte, enthält alles, was seine Vorgänger erreicht hatten und einiges mehr. So war er von 1378-1388 und 1411-1415 Kurfürst und Markgraf von Brandenburg, ab 1387 König von Ungarn, ab 1411 deutscher König, ab 1419 König von Böhmen, ab 1431 Lombardischer König sowie ab 1433 Römischer Kaiser. Er schrieb Weltgeschichte mit dem Konzil von Konstanz (1414-1418), in dessen Verlauf der böhmische Reformator Jan Hus als Ketzer verurteilt und auf dem Scheiterhaufen verbrannt wurde. Viel mehr ist von ihm nicht zu berichten. Mit Sigismund endete die Dynastie der Luxemburger Kaiser und Könige. Das Haus Habsburg (Albrecht II.) übernahm zum zweiten Mal die Funktion des Römisch-deutschen Kaisers und nahm sie bis 1806, also fast 400 Jahre lang, wahr.

Zusätzliche Referenzen:
  1.  Endres,A.: Die Niederweiser Schlossherren und ihr Anteil an der Geschichte des Nimstals. In: Beiträge zur Geschichte des Bitburger Landes, Heft 54, 1/2004, S. 15-27
  2. Schmid, W., Borck, K.H.: Kaiser Heinrichs Romfahrt. Zur Inszenierung von Politik in einer Trierer Bildhandschrift des 14. Jahrhundert. Koblenz 2000
  3.  Seibt,F.: Karl IV. Ein Kaiser in Europa 1346-1378. München 1978