Dienstag, 27. September 2011

Über Zweitkonten, Zweitadressen und Decknamen im Internet

Immer wieder gibt es Situationen, in denen man besser dran ist, wenn man im Internet flexibel reagieren kann. Vor einigen Tagen konnte ich plötzlich nicht mehr mit meinem befreundeten Verleger kommunizieren. Fast zwanzig Jahre lang ging es gut. Diese Woche wurde elektronische Post von seinem Anbieter (auf Neudeutsch Provider) als Spam abgewiesen, sofern sie von Konten beim selbigen Anbieter stammte. Näheres konnte man noch am selben Tage bei Focus Online oder im Handelsblatt lesen oder im Fernsehen hören. Ich konnte trotzdem meine Post an ihn loswerden, da ich noch ein E-Mail-Konto bei einem andern Anbieter hatte.

Seit ich E-Mails schreibe – ich schätze seit Anfang der 1970er Jahre – wollte ich mich nicht von einem einzigen Anbieter abhängig machen. Anfangs ging es mir darum, die funktionalen Unterschiede zwischen den Anbietern kennen zu lernen und ggf. auszunutzen. Der zweite Grund war, dass ich nicht überblicken konnte, welcher Anbieter auf Dauer einen akzeptablen Dienst hinbekommen würde, ja, ob er überhaupt überleben würde. Diese Sorge hat sich gelegt. Auch die funktionalen Unterschiede sind heute nur noch minimal.

Für alle Konten benutze ich neben der primären Adresse noch eine oder mehrere Zweitadressen, in der Fachsprache Alias genannt. Sie sind fast so wichtig wie Zweitkonten. Ein relativ oberflächlicher Grund war, dass ich Adressen wählte, die leichter einzuprägen waren als die Primäradresse. Auch wollte ich bei Reisen, sei es in Europa oder sonst irgendwo in der Welt, E-Mails lesen und verschicken können. An zwei Situationen erinnere ich mich noch sehr lebhaft. Im Hafen von Montevideo lag das Internet-Café direkt an der Hafenmole, von dem aus ich E-Mails in alle Welt versandte. Auf der Südsee-Insel Vavau im Tonga-Archipel stand in einer Palmenhütte ein Rechner, von dem E-Mails zu verschicken sogar besonders billig war. Für solche Zwecke habe ich eine Adresse, die ich nur auf Reisen verwende, da ich hier keinerlei Datenschutz erwarte. 

Das größte Problem, bei dem eine Zweitadresse helfen kann, sind Spam-Nachrichten. Nach meiner Erfahrung schaukelt sich die Spam-Belastung über einen gewissen Zeitraum auf. Ist eine Adresse einmal in diesen Kreisen bekannt, gibt es keinen Halt mehr. So ist es mir mehrmals passiert, dass der Spam-Verkehr mit 30-50 Nachrichten pro Tag ein Ausmaß annahm, dem ich nur Herr werden konnte, indem ich diese Adresse aufgab. Danach hatte ich wieder für einige Monate oder Jahre Ruhe. Ich wunderte mich immer wieder, für welche Art von Wirtschaftsgütern oder Dienstleistungen man mich ausgewählt hatte.

Eine ganz andere Diskussion betrifft die Frage, wie man sich in den so genannten Sozialen Netzen des Internets selbst darstellt. Für manche Zeitgenossen ist Internet heute gleichbedeutend mit Facebook, StudVZ, Xing und dergleichen. Ich konnte mich bis heute für keines dieser Netze wirklich erwärmen. Der Mehrwert gegenüber einer eigenen Homepage und einer einheitlichen Kontaktliste für E-Mails und Smartphone ist gering. Da ich die Homepage zwecks Selbstdarstellung schon besaß, habe ich mich den neuen Netzen nur versuchsweise genähert. Überall benutze ich einen Decknamen, mit einer einzigen Ausnahme. Das ist LinkedIn. Hier haben etwa 80 Fachkollegen aus aller Welt mich als Kontakt akzeptiert. Dafür erfahre ich, welche Kontakte sie (außer mir) noch haben, und – bei noch beruflich aktiven Kollegen – ob sie den Job oder die Hochschule wechselten.

Die unter anderem von Thomas de Maizière, dem damaligen Bundesinnenminister und jetzigen Bundesverteidigungsminister, aufgebrachte Idee, im Internet nur Klarnamen zuzulassen und Decknamen zu verbieten, zeugt nicht von einem ausgeprägten Sinn für Praxis. Sie hat wohl auch politisch keine Chance, realisiert zu werden. Dagegen ist auf lange Sicht eine Trennung zwischen offizieller Kommunikation einerseits, die eine gesicherte Identität voraussetzt, und inoffizieller Kommunikation andererseits, die Pseudonyme zulässt, vielleicht die einzig sinnvolle Lösung. Wenn ein Anbieter wie Google dafür wirbt, oder gar vorschreibt, nur Klarnamen zu verwenden, so ist dies nur ein Ausfluss des benutzten Geschäftsmodells. Werbung lässt sich halt umso leichter verkaufen, je mehr man über die Zielgruppe weiß.

Bei einem Pseudonym entscheidet der Empfänger, ob er Post akzeptiert oder im Netz den Kontakt pflegen will. Alle meine Kontakte in Sozialen Netzen (außer bei LinkedIn) haben hier eine gewisse Hürde überwinden müssen. Entweder wussten sie, wer hinter dem Alias oder Pseudonym steckt, oder ich musste es ihnen auf anderem Wege erklären. Natürlich bin ich nicht in einer beruflichen Situation oder in einer Lebensphase, wo ich partout nach neuen, bisher unbekannten Kontakten Ausschau halten muss.

Beim Internet-Händler eBay ist es ganz normal, sich unter einem Pseudonym in einen Bieterwettbewerb einzuschalten. Ich sehe auch keinen Grund, dies zu ändern. Wenn immer es ans Bezahlen geht, will ich jedoch meine wahre Identität nicht länger verheimlichen. Trotzdem bin ich natürlich sehr vorsichtig, wem ich meine Konto- oder Kreditkartennummer gebe. Ich empfinde es allerdings nicht als Eingriff in meine Privatsphäre, wenn ich mir ein Buch bei Amazon kaufen will und mir gesagt wird, welche anderen Bücher die Leute noch kauften, die vor mir dieses Buch kauften. 

Wer nicht weiß, oder nicht glaubt, dass er bei jedem Auftreten im Internet Spuren hinterlässt, hat eine falsche Vorstellung von diesem Medium. Auch in der realen Welt passieren Dinge, die man nicht sieht. Wer meint, dass Facebook nicht erfasst, wer wann auf einen ‚Gefällt mir‘-Schaltknopf drückt, ist naiv. Wozu soll der wohl sonst da sein? Außerdem kann man jeden Rechner und jedes Mobiltelefon überall in der Welt lokalisieren, sobald sie eingeschaltet sind. Daher ist ein verheirateter Mann, der auf Abwege geraten ist, gut beraten, sein Handy auszuschalten. 

Jeder Internet-Nutzer muss sich überlegen, wem er vertraut und welche Risiken er einzugehen bereit ist. Auch das ist nicht viel anders als im wahren Leben. Um abwägen zu können, muss man sich informieren, es sei denn er oder sie können dem Reiz eines Abenteuerspielplatzes nicht widerstehen. Wer heute eine Schiffsladung um das Horn Afrikas transportieren will, wägt die damit verbundenen Risiken ab. Dasselbe tut – mit andern Vorzeichen – die Sorte von Piraten, die dort aktiv ist. Die Piraten des Internet leben manchmal auch gefährlich, es sei denn sie lassen sich in Parlamente wählen.

Samstag, 24. September 2011

Papst Benedikt und die Grundlagen des Rechts

Papst Benedikt XVI. hielt am 22.9.2011 eine Rede vor dem Deutschen Bundestag in Berlin. Statt zu aktuellen Fragen der Tagespolitik seine Meinung darzulegen, hielt er eine anspruchsvolle juristisch-philosophische Vorlesung. Er wollte den Abgeordneten aus seiner Sicht erklären, welches die Grundlagen ihrer Tätigkeit als Gesetzgeber sind.

Wie nicht anders zu erwarten, griff der Papst dabei auf Zitate aus der Bibel (König Salomon, Paulus-Briefe) und von Kirchenlehrern (Origenes, Augustinus) zurück. Er argumentierte primär gegen die Positionen des Positivismus. Relevant ist dabei einerseits der erkenntnistheoretische Positivismus, andererseits der Rechtspositivismus. In der positivistischen Erkenntnistheorie wird von folgenden Annahmen ausgegangen:

Wir wissen letztlich nichts über die Außenwelt. Alles, worüber wir verfügen, sind Sinnesdaten. Diese interpretieren wir, wobei sich nun allerdings die Frage stellt, wie wir sie interpretieren.

Der Rechtspositivismus fordert ein Recht, 

das sich ausschließlich auf die mit dem Gesetzgeber gegebene menschliche Legitimation beruft. …Es wird weder mit einem Rückbezug auf …das göttliche Recht der Bibel legitimiert, noch über Naturrechte, also allen Menschen natürlich und gleichermaßen zukommende Rechte.

Beginnen wir mit letzterem. Benedikt gibt zu, dass das Naturrecht nur eine katholische Sonderlehre darstellt, die er gar nicht bemühen möchte. Deshalb zitiert er einen Vertreter des Positivismus, Hans Kelsen, der im hohen Alter von 84 Jahren (also im gleichen Lebensalter, das der Redner gerade erreicht hat) zu der Einsicht kam, dass sich aus der Betrachtung der Natur keine Verhaltensregeln (Normen) ableiten lassen. Dafür sei ein Wille erforderlich. Es stellt sich die Frage, wo der zu suchen ist, in der Natur oder außerhalb. Nach Ansicht des Papstes käme dafür natürlich nur der göttliche Schöpferwille in Frage.

Bereits in den 1970ern hätten junge Menschen erkannt, dass die Art, wie wir die Natur sehen, nämlich als Dienerin des Menschen, nicht richtig sein könnte. Die daraus entstandene Ökologie-Bewegung führte zu der heute fast allgemein akzeptierten Einsicht, dass die Natur einen Zweck hat, der vom Menschen unabhängig ist. Sie habe eine eigene Würde. Vielleicht erkennen wir auf ähnliche Weise, dass der Mensch ebenfalls nicht nur Selbstzweck ist. Wir kämen dann zu einer Ökologie des Menschen.

Nicht nur die Mehrheiten von Meinungen schaffen Recht. Es gibt tiefere Wurzeln. Im Gegensatz zu andern Religionen habe das Christentum nie ausschließlich auf göttlichem Recht bestanden. Aus dem Zusammenfluss von jüdischer, griechischer und römischer Tradition entstand eine Rechtsphilosophie, die auch Natur und Vernunft immer als Quellen des Rechts ansah. Als Europäer sollten wir diese Traditionen nicht einfach zur Seite schieben. Nur müsste man erkennen, was Natur und Vernunft uns mitteilen. Das sei nicht immer einfach. 

Der Positivismus beschränke die Natur des Menschen auf seine Körperlichkeit und die Vernunft auf das, was verifizierbar oder falsifizierbar ist. Das hält Benedikt für eine unzumutbare Reduktion. Die Vernunft des Menschen weise schließlich über seine Natur hinaus. Die Vernunft könne sich vom Gewissen leiten lassen. Es helfe dabei, Gutes von Bösem zu unterscheiden. Da das Gewissen nicht der Rationalität unterliegt, scheint sich hier eine Brücke zum Irrationalen, zum Metaphysischen, aufzutun. Sie scheint für Benedikt sehr wichtig zu sein, da sie ja auch zu den Religionen führt. Bei seinen Zuhörern bewegte Benedikt sich mit diesem Begriff auf sehr vertrautem Terrain, leitet doch unser Grundgesetz sowohl den Bürgern (in Art. 4) wie den Parlamentariern (in Art. 38) basierend auf ihrem Gewissen sehr fundamentale Rechte ab.

Wenn immer Benedikt über Vernunft spricht – er tut dies sehr oft, so auch 2006 in Regensburg – komme ich nicht umhin an den Kult der Vernunft zu denken, den die französischen Revolutionäre 1793 an die Stelle der Religionen setzten. Sie trieben damit die Ziele der Aufklärung auch äußerlich auf die Spitze. Überall, wo sie hinkamen, wurden aus christlichen Kirchen so genannte Tempel der Vernunft. So geschehen zum Beispiel in Trier und Mainz. Das historische Schicksal dieses Spuks wurde bekanntlich 1801 durch das Konkordat Napoléons mit dem Vatikan besiegelt. Ich frage mich, ob Benedikt jetzt nachträglich die Aufklärung vereinnahmen will oder wird er von ihr vereinnahmt? Die einst sehr extremen Gegensätze wurden ins Gegenteil verwandelt. Kirchenlehre und Vernunft verstehen sich heute als Partner – so sieht es jedenfalls Papst Benedikt.

Donnerstag, 22. September 2011

Kapitalismus und Dritte Welt

Auf den Kapitalismus zu schimpfen gehört in manchen Kreisen fast zum guten Ton. Besonders beliebt ist es derzeit, dem langen Wort noch mehrere Vorsilben hinzuzufügen, etwa Turbo oder Kasino. Beginnen wir mit einer klassischen Begriffsdefinition, etwa der von Wikipedia. Danach ist Kapitalismus

eine Wirtschafts- und Gesellschaftsordnung, die auf Privateigentum an den Produktionsmitteln und einer Steuerung von Produktion und Konsum über den Markt beruht.

Die Verwendung des Begriffs in der Volkswirtschaftslehre geht vor allem auf Adam Smith (1723-1790) und David Ricardo (1772-1823) zurück. Seit Karl Marx (1818-1883) ist der Begriff vorwiegend negativ belegt, nämlich als Ursache für das Entstehen von Klassengesellschaften. Es ist heute üblich, statt von dem Kapitalismus von einer Vielzahl verschiedener Ausprägungen des kapitalistischen Systems zu sprechen. Der Unterschied besteht darin, wie das Kapital verteilt ist und wer es kontrolliert.

Wer sich heute im Hinblick auf die Dritte Welt mit diesem Thema befassen möchte, kommt an dem im Jahre 2000 erschienenen Buch des peruanischen Ökonomen Hernando de Soto nicht vorbei. Zufällig hat der Autor denselben Namen wie einer der berühmten spanischen Konquistadoren des 16. Jahrhunderts. Im Deutschen hat das Buch den Titel: Freiheit für das Kapital - Warum der Kapitalismus nicht weltweit funktioniert. Das hört sich sehr selbstsicher an. Dem gegenüber ist der englische Titel eher fragend (The Mystery of Capital – Why Capitalism Triumphs in the West and Fails Everywhere Else).

Das Buch erschien, als nach dem Fall der Berliner Mauer der Kapitalismus sich als die einzige noch ernst zu nehmende Wirtschaftstheorie anbot. De Soto und sein Forscherteam gingen der Frage nach, warum der Kapitalismus in den Entwicklungsländern und im Bereich der ehemals kommunistischen Staaten sich nicht so entwickelt wie im Westen. Dabei steht der Ausdruck Westen für die Länder, die wirtschaftspolitisch stark von Europa und den USA beeinflusst wurden, also auch Australien, Neuseeland und Japan. Seine Untersuchungen erstreckten sich außer auf Südamerika auf Ägypten, Haiti, die Philippinen und Russland. Seine Erkenntnisse sind durchaus überraschend. 

Als verantwortlich für den Unterschied zum Westen sieht er nicht den Mangel an Geld oder Vermögen, das Fehlen von Unternehmer-Persönlichkeiten, den Volkscharakter oder gar kulturelle oder religiöse Traditionen (Stichwort. Protestantische Ethik). Es sei vielmehr der katastrophale Zustand des Rechtssystems in vielen Ländern der Dritten Welt. Der Kapitalismus, wie ihn der Westen kennt, setzt nämlich ein ganz bestimmtes Rechtsgefüge voraus, unterstützt von einer effizienten Verwaltung.

Da es in den meisten Entwicklungsländern so schwierig ist, sich im rechtlichen Rahmen zu betätigen, wandert der größte Teil der Wirtschaft in die Illegalität ab. Das gilt für abhängig Beschäftigte ebenso wie für Unternehmensgründer. Eine Folge – aber nicht das Hauptproblem – ist die Allgegenwart von Bestechungs- oder Schutzgeldern. Entscheidend ist vielmehr die Tatsache, dass die meisten Menschen nicht in der Lage sind, für das wenige was sie besitzen, eindeutige Rechtstitel zu bekommen. Alles, was an Vermögenswerten existiert, seien es Viehbestände, Wertgegenstände, Haus- oder Grundbesitz, ist daher ‚totes Kapital‘. Sie können nicht als Sicherheiten für Kredite verwendet werden. Nur wenn die Menschen in der Dritten Welt in dieser Hinsicht dieselben Möglichkeiten hätten wie ihre Zeitgenossen im Westen, wären sie in der Lage, ihren ökonomischen Zustand selbst zu verbessern. Die Mittel, die dadurch verfügbar würden, lägen um mehrere Größenordnungen über dem, was der Westen als Entwicklungshilfe aufbringen kann.

Für uns im Westen ist das Vorhandensein eines verlässlichen Rechtssystems so selbstverständlich, dass wir dazu neigen, seine Bedeutung zu vergessen. Es hat sich bei uns über Jahrhunderte entwickelt. Selbst die USA waren während der so genannten Pionierzeit, also vor etwa 150 Jahren, in rechtlicher Hinsicht ein Dritte-Welt-Land. So bedurfte es im Wettstreit zwischen Indianern, Siedlern, Spekulanten und Regierung einiger Mühen, bis dass die Rechtstitel auf Landbesitz eindeutig zugeordnet waren. Anzunehmen, dass Regionen, die eine völlig andere Rechtstradition haben, die notwendigen Anpassungen innerhalb weniger Jahre schaffen, ist daher eine Illusion. Das gilt übrigens auch für die Staatengruppe, in der im Moment der ‚arabische Frühling‘ ausgebrochen ist.

Das Wirtschaften außerhalb der Legalität hat seine spezifischen Kosten, auf die bereits hingewiesen wurde (z. B. Bestechungs- und Schutzgelder). Die Kosten für ein legales System können sogar noch höher sein. Sie drücken sich meist in Steuern aus. Sind diese sehr hoch, kann dies Individuen und Firmen – sowohl in Entwicklungsländern wie auch bei uns – in die Illegalität treiben. Selten ist es ein ideologisches Vorurteil, welches Leute dazu bringt, von der einen auf die andere Seite zu wechseln, sondern reine Arithmetik.

Der Anker unseres Rechtssystems ist der Eigentumsbegriff. Der betrifft materielles wie geistiges Eigentum gleichermaßen. Erst das Rechtssystem schafft den Unterschied zwischen Besitz und Eigentum. Nicht die Tatsache, dass man etwas besitzt, macht daraus auch gleich ein Eigentum. Es bedarf eines Rechtsaktes, um Eigentum zu erwerben. Im Falle von Grundbesitz sind die entsprechenden Regeln bei uns besonders aufwendig. Sie haben das Ziel, kurzfristige Veränderungen zu erschweren und Täuschungsversuche zu verhindern. De Soto ist der Meinung, dass Eigentum fünf maßgebliche Effekte für Wirtschaft und Gesellschaft hat. Ich finde diese Überlegungen interessant und will sie daher kurz andeuten. Eigentum, so heißt es:
  • Bestimmt den wirtschaftlichen Wert von Vermögen: Was sonst verborgen bleibt, kann bewertet werden.
  •  Integriert verteilte Informationen: Alle relevanten Aspekte über ein Wirtschaftsgut werden zusammengefasst.
  • Macht Menschen verantwortlich: Eigentum wird gepflegt. Man vermeidet die Tragik der Allmende.
  • Macht Vermögen handelbar (fungibel): Es kann geteilt und übertragen werden.
  • Vernetzt Leute: Je mehr Leute über Eigentum verfügen, umso mehr schätzt man es, umso mehr ist es wert (analog zum Metcalfeschen Gesetz aus der Informatik). Kapital ermöglicht Spezialisierung und Arbeitsteilung.
  • Schützt Transaktionen: Eigentumsänderungen erfolgen kontrolliert.

Erwähnen möchte ich, dass sich am Begriff des Eigentums die politischen Geister immer noch spalten. Nicht ohne Grund steht deshalb im § 14 unseres Grundgesetzes der Satz ‚Eigentum verpflichtet‘. Seine Benutzung kann eingeschränkt werden, sofern dies das Interesse der Gemeinschaft verlangt.

De Soto kommt nach seinen Untersuchungen zu folgendem Schluss: Um den Menschen in den Entwicklungsländern die Chance zu geben als Kapitalisten Erfolg zu haben – alles andere ist heute uninteressant – , müssen die dortigen Politiker ihnen Wege eröffnen, um an rechtlich abgesichertes Eigentum zu gelangen. Die oben skizzierte amerikanische Geschichte kann ihnen als Vorbild dienen. Dort erhielten die zunächst rechtslosen Landbesetzer (engl. squatters) nach und nach auch rechtliche Titel. Es wurde in der Regel juristisch nachvollzogen, was sich von unten her etabliert hatte.

Zwei Entwicklungen, die De Soto nicht vorhersehen konnte, spielen in der heutigen Diskussion eine besondere Rolle. So erlebt die Volksrepublik China einen fulminanten wirtschaftlichen Aufstieg, ohne nominell den Kapitalismus anzunehmen. Allerdings hat sie den Akteuren weitgehende Eigentumsrechte eingeräumt. Griechenland dagegen ist das Lehrbeispiel dafür, dass Kredite nicht nur gute Seiten haben. Werden sie in einem Maße in Anspruch genommen, dass ihre Bedienung in Frage gestellt wird, kann dies zu einer sehr kritischen Lage führen. Schulden wirken mitunter wie ein süßes Gift.

Die beiden am Anfang des Beitrags erwähnten Schlagworte will ich noch kurz erläutern. Das Wort Turbokapitalismus wird neuerdings von mehreren Autoren verwandt, um eine moderne Entwicklung des Kapitalismus zu bezeichnen, der sich neue Technologien gezielt zunutze macht, um zeitliche und räumliche Beschränkungen des Wirtschaftens zu durchbrechen. 

Er wird verstanden als Tendenz zu immer schnellerer Produktion …, angetrieben von Kapital auf der Suche nach höchstmöglicher Rendite. Diese Beschleunigung erfasse auch die Individuen, die stetig höheren Belastungen ausgesetzt seien und mit den Anforderungen immer weniger zurechtkämen. 

Bei dem Begriff Kasino-Kapitalismus hat man die globalisierten Finanzmärkte im Auge, die sich von der Realwirtschaft abgekoppelt haben. Hier gehen die Teilnehmer teilweise Risiken ein, die man am ehesten mit einem Glücksspiel vergleichen kann, dazu noch mit kurzfristig geliehenem Geld. 

Vielleicht sind Entwicklungsländer von diesen beiden Phänomenen noch nicht direkt betroffen. Gerät der Westen ihretwegen in Schwierigkeiten, kann dies jedoch auf die Dritte Welt ausstrahlen.

Montag, 19. September 2011

Politik-Lehrstück aus Berlin

Da einige Leser, vor allem im Ausland, meine Bemerkungen zur Wahl in Baden-Württemberg als hilfreich ansahen, will ich auch kurz etwas zu den gestrigen Berliner Wahlen sagen. Da Berlin genau wie Bremen und Hamburg ein Stadtstaat ist, handelt es sich im Grunde um eine Kommunalwahl. Wahlberechtigt waren 2,5 Mio. Einwohner. Die Wahlbeteiligung lag bei 60,2%, gegenüber 58% bei der letzten Wahl. Es war dies die letzte in einer Serie von sechs Landtagswahlen des Jahres 2011.

Die offiziellen Zahlen für die zukünftig im Abgeordnetenhaus vertretenen Parteien sind in folgender Tabelle wiedergegeben. Hinter den Prozentanteilen der Stimmen steht die Zahl der Sitze (in Klammern).

  Wahlergebnisse in der Stadt Berlin

Zusammenfassen lässt sich das Ergebnis der Wahl wie folgt: Die FDP wurde marginalisiert und fiel auf das Niveau der Tierschutzpartei herab. Das Feld der linken Parteien hat sich weiter aufgespalten und wurde um einen Exoten reicher. Jetzt der Reihe nach.

Die Berliner CDU leidet immer noch unter der Nachwirkung der diversen Skandale, die in den letzten zehn Jahren ihren Ruf ruinierten. Sie scheint sich aber auf niedrigem Niveau gefangen zu haben. Viel schlimmer ist, es gibt in Zukunft keinen natürlichen Koalitionspartner mehr und sie ist ganz auf sich allein gestellt.

Die beiden bisherigen Regierungsparteien erlitten beide Verluste und können daher ihre Koalition nicht mehr fortsetzen. Die SPD scheint darüber nicht sehr unglücklich zu sein, hat sie doch in den gestärkten Grünen einen Partner in Aussicht, der aus bundespolitischer Sicht viel nützlicher ist als die Linke. Durch das mächtige Auftrumpfen der Grünen in den vorangegangenen Landtagswahlen fühlten sich die SPD und ihr Spitzenkandidat Wowereit herausgefordert. Er setzte seinen Scharm voll ein, um zu beweisen, dass er die Mentalität der Berliner besser wiederspiegelt als Frau Künast, die Konkurrentin von den Grünen.

Die Grünen legten zwar kräftig zu, mussten aber zur Kenntnis nehmen, dass ihre Bäume auch nicht in den Himmel wachsen. Schlimmer noch, sie werden inzwischen als Teil des Establishments angesehen und ziehen keine Protestwähler mehr an.

Die Linke als Heimat der ehemaligen DDR-Kader war im Osten Deutschlands immer stark, solange sie in der Opposition war. Sie verschliss sich jedoch, wenn immer sie Regierungspartei war. Alltagsarbeit war nichts für ihr Aushängeschild Gregor Gysi, der nach ein paar Monaten das Berliner Wirtschaftsressort fluchtartig verließ. Aber auch sein Nachfolger Wolf war sich im Unklaren darüber, was er als Kommunist für den Wirtschaftsstandort Berlin tun sollte.

Geradezu raketenhaft ist der Aufstieg der Piratenpartei. Sie ist zwar, ganz so wie die Grünen in ihrer Anfangszeit, eine Ein-Thema-Partei. Bei ihnen ist es die Abschaffung des Rechts auf geistiges Eigentum. Verkünden tun sie dies als Ermöglichung des ungestörten Zugriffs auf alle Netzinhalte. Zusätzlich haben sie sich für ein arbeitsfreies Grundeinkommen ausgesprochen. Ihre Wähler sind vorwiegend unter 30 Jahren alt und männlich. Interessant ist, dass Wahlforscher festgestellt haben, dass nur 10% der Berliner Wähler die Piraten wegen ihrer politischen Ziele gewählt haben. Die übrigen 90% möchten zum Ausdruck bringen, dass keine der anderen Parteien ihnen zusagt. Vielleicht wollen sie auch sagen, dass Klamauk schöner ist als politisches Argumentieren. Als Folge davon werden alle 15 auf der Landesliste genannten Kandidaten ins Parlament einziehen. Das soll mal jemand nachmachen!

Bleibt noch die FDP. Da sie nicht nur in Berlin, sondern auch in vier von fünf vorangegangenen Wahlen grandiose Verluste erlitt, ist wohl bald ein Nachruf fällig. Seit sie bei der Bundestagswahl 2009 mit einem einzelnen Thema, dem der Steuersenkung, punkten konnte, wandten sich die Verhältnisse gegen sie. Erst kam die Finanzkrise, dann die Eurokrise und niemand fand, dass Steuern gesenkt werden könnten. Selbst der Wechsel im Vorsitz von Westerwelle auf Rösler führte bisher zu keiner Themenausweitung. Auch der Versuch, den Griechen die Schuld dafür zu geben, dass es uns in Zukunft möglicherweise an das Ersparte geht, mag an (bayrischen) Stammtischen Anklang finden, die Berliner Wähler hat es nicht beeindruckt. Dass Berliner helle sind, haben sie ja immer gerne von sich behauptet. Mit Leim lassen auch sie sich nicht fangen.

Freitag, 16. September 2011

Direkte Demokratie und der Euro

Im heutigen Beitrag wird es mal wieder politisch. Mit direkter Demokratie (auch: plebiszitärer Demokratie) bezeichnet die Bundeszentrale für politische Bildung 

eine demokratische Herrschaftsform, bei der die politischen Entscheidungen unmittelbar vom Volk (z.B. in Volksversammlungen und durch Volksabstimmung) getroffen werden und lediglich Ausführung und Umsetzung der Entscheidung einer Behörde überlassen werden.

Das Gegenstück ist die repräsentative Demokratie. Das ist die Staatsform, wie sie durch das Grundgesetz für die Bundesrepublik Deutschland festgeschrieben wurde. In derselben Quelle heißt es dazu:

die politischen Entscheidungen und die Kontrolle der Exekutive (Regierung) [wird] nicht unmittelbar vom Volk, sondern von einer Volksvertretung (Parlament) ausgeübt. Die Ausübung der demokratischen Rechte der Bevölkerung ist … auf die Beteiligung an Wahlen und die Mitwirkung in Parteien, Verbänden und Initiativen beschränkt.

Immer wieder melden sich Protagonisten der direkten Demokratie zu Wort, die meinen, dass nur darin die Lösung aller Akzeptanzprobleme für das demokratische System der Bundesrepublik zu suchen sei. Das Nachbarland Schweiz gilt in dieser Hinsicht als Vorbild, wurden doch dort eine Reihe politischer Fragen auf diesem Wege entschieden. Auch Schweizer Politiker sagen nicht, dass dieses Verfahren für jedwedes Problem geeignet ist. Das gilt insbesondere für etwas schwierigere Probleme, bei denen die Lösungen nicht klar auf der Hand liegen. Die Situation des Euro, bzw. die Möglichkeiten seiner Rettung, sind ein typisches Beispiel eines schwierigen Problems. Es gibt vor allem keine bekannte Standardlösung.

Zum Problem selbst: Durch die Einführung des Euro wurde unterschiedlich leistungsfähigen Volkswirtschaften die Möglichkeit genommen, durch Wechselkursänderungen ihre Wettbewerbsfähigkeit zu verbessern. Andererseits gab es günstige Kredite, was Regierungen dazu verleitete, sich über alle Maßen zu verschulden. Erst in dem Moment, als Zweifel entstanden, dass die Kredite auch bedient werden können, gab es Probleme. Das begann im Mai 2010 mit Griechenland, erfasste aber auch Irland und Portugal.

Die seither ablaufende öffentliche Diskussion ist sehr verwirrend. Ich will sie vereinfachend in drei Stränge einteilen:

(a) Neoliberale, vorwiegend an Stammtische appellierende Argumente. Nur wenn die verschuldeten Länder die Konsequenzen ihres Tuns zu spüren bekommen, hat es eine erzieherische Wirkung.

(b) Soziale, von übergeordneten Zielen geleitete Überlegungen: Die Einigung Europas ist ein so wichtiges Ziel, dass wir dafür ruhig einiges Geld einsetzen sollten. Bei der deutschen Wiedervereinigung war es nicht anders.

(c) Dazwischen liegende, unsichere Positionen: Da man nicht weiß, was passiert, wenn man sich in Richtung von (a) oder (b) entscheidet, versucht man zunächst Zeit zu gewinnen.

Während die dritte Position eher taktisch bedingt ist, kommen bei den Alternativen (a) und (b) eminent politische Grundeinstellungen zum Ausdruck. Ich erspare mir zu erklären, welche politischen Parteien, Wirtschaftsinstitute oder Medien mehr entlang dem einen oder andern Strang argumentieren. Die maßgeblichen politischen Akteure scheinen sich im Moment nach Alternative (c) zu verhalten. Das ist sogar zu verstehen, da man Panikreaktionen der Bevölkerung oder Erschütterungen im Finanzgebäude (Stichwort: Lehman-Pleite) tunlichst vermeiden will. Diesem Zweck dient auch der geplante Rettungsschirm EFSF, über den gerade im Parlament diskutiert wird.

Man kann nur hoffen, dass nach Ablauf weiterer Zeitperioden (möglichst nach Quartalen, nicht nach Jahren) eine Wende zum Guten, also Fortschritt, sichtbar wird. Im Falle eines überschuldeten Staates heißt dies, die Ausgaben wurden gesenkt oder die Einnahmen wurden erhöht, oder – besser noch – beides. Bleibt der Fortschritt auf Dauer aus, gibt es nur noch Alternativen (a) oder (b). Ob es dann zur Notstandsverwaltung, zur Staatspleite oder gar zu einem Austritt aus der Währungsunion kommt, ist sekundär. Die Kosten werden auf jeden Fall enorm sein. Einen externen Retter in höchster Not kann ich mir nicht vorstellen, obwohl manche Leute zurzeit bereits heimlich in Richtung China schielen. 

Es entsteht in den letzten Wochen fast der Eindruck, als ob nicht nur die Regierenden, sondern auch die rund 600 ins Parlament gewählten Vertreter des Volkes sich fachlich überfordert fühlen. Leider gibt es auch keinen Wissenschaftler, der in der Lage ist zu sagen, was am besten zu tun ist. Die FDP trägt sich daher mit dem Gedanken, ihre Mitglieder um Rat zu fragen, wie man das Euro-Problem am besten lösen kann. Bei der um ihr Überleben kämpfenden Partei hat man das Gefühl, dass es ihr primär darum geht, Aufmerksamkeit zu erheischen. Es geht anscheinend weniger um die Sachfrage als um deren öffentliche Wirkung. Einige Kommentatoren kritisieren bereits, warum man nur FDP-Mitglieder in Deutschland befragen wolle und nicht das gesamte europäische Wahlvolk. Außerdem erbrächte ein Volksentscheid die ideale Legitimation für die eventuell notwendigen harten Maßnahmen. 

Mein bisschen politisches Gespür sagt mir, dass sich die Demokratien in Europa damit keinen Gefallen erweisen würden. Es müsste dann nämlich noch eine europa-weite, monatelange aufklärende Kampagne stattfinden, damit der Souverän weiß, worüber er entscheiden soll. Wie schwierig dies werden kann, erleben wir gerade in Baden-Württemberg. Hier sollen im November die Bürger zwischen Main und Allgäuer Alpen entscheiden, ob in Stuttgart der Bahnhof nach unten verlegt werden soll. Die Hoffnung einiger Landespolitiker, dass diese Frage sich auf andere Art selbst erledigen würde, hat sich leider nicht erfüllt. Die Volksbefragung soll jetzt entweder eine von einer früheren Regierung rechtmäßig getroffene Entscheidung umdrehen, oder, wenn das Ergebnis andersherum ausfällt, die Grünen von ihrem Wahlversprechen entbinden. Ob wirklich eines von beiden eintreten wird, ist allerdings noch offen.

Die Quintessenz: Nicht immer werden in einer Demokratie Entscheidungen dadurch besser oder klarer, dass man mehr Menschen involviert. Manchmal muss zuerst die Exekutive und danach das Parlament die Verantwortung übernehmen. Alle Beteiligten müssen allerdings erklären, warum sie sich für die eine oder die andere der zur Wahl stehenden Alternativen entscheiden. Dass muss man von seinem Repräsentanten erwarten dürfen. Deshalb habe ich auch bei meinen Wahlkreisabgeordneten nachgesehen, welche Position er bezieht. Daraus, dass er die 29 Fragen und Antworten des Finanzministers auf seiner Homepage zitiert, schließe ich, dass er für den Rettungsschirm EFSF votieren wird.

Mittwoch, 14. September 2011

Geschäftsprozessmodellierung und SAP

In dem Interview mit Hartmut Wedekind für diesen Blog hatte ich versucht, mir ein Bild davon zu verschaffen, welche Rolle das Thema Geschäftsprozessmodellierung heute spielt. Es ging mir darum, ausgehend von den Workflow-Produkten der IBM, die ich kannte, und dem recht erfolgreichen Ansatz namens ARIS des Kollegen Scheer zu verstehen, wo heute die Musik spielt. Kollege Wedekind verlor wenig Zeit im historischen Rückblick, sondern fuhr voll auf BPMN 2.0 ab. Alles andere wäre quasi nur Vorspiel. Insbesondere verwies er auf die Arbeiten von SAP und von Volker Stiehl. 

Volker Stiehl wurde Anfang diesen Monats an der TU Darmstadt im Fachbereich Rechts- und Wirtschaftswissenschaften (bei Prof. Dr. Erich Ortner) promoviert. Auf Empfehlung des Kollegen Wedekind habe ich mir seine Dissertation angesehen. Genau wie ich hat Volker Stiehl nach 18-jähriger Industrie-Tätigkeit promoviert. Es waren nicht nur diese Gemeinsamkeiten im Lebenslauf, die mich interessierten, sondern auch das Thema der Arbeit (siehe unten). Ich war nach dem Lesen sehr beeindruckt, hatte aber – erwartungsgemäß – einige Verständnisfragen. Fast hätte ich die Sache auf sich beruhen lassen, wäre ich nicht durch einen anderen Vorgang in meiner Rentnerruhe gestört worden.

Seit Anfang des Jahres werden alle GI-Mitglieder wieder mit einer nicht-wissenschaft­lichen Ergänzung des Informatik-Spektrums beglückt. Es sei dies der Ersatz für die Computerzeitung – so hieß es. Bekanntlich hatte die Computerzeitung die GI-Mitgliedschaft tief gespalten. Einige Mitglieder empfanden sie schlicht als Zumutung. Sie verglichen sie mit der Bildzeitung. Andere, für die das Informatik-Spektrum offensichtlich zu dröge war, nannten den Wegfall der Computerzeitung als Grund dafür, aus der GI auszutreten. Schließlich hat der Vorstand reagiert. Das neue Auflockerungsmittel heißt ‚Digital‘. Auf den ersten Blick ist zumindest das Papier besser. Nach drei Heften lässt sich über das publizistische Niveau noch nicht viel sagen. Zumindest kommen in jedem Heft einige GI-Vorstandsmitglieder mit Bild vor. Heft 3 (September/Oktober 2011) von ‚Digital‘ hat mich doch etwas besorgt gemacht. Hier gibt es unter anderem einen dreiseitigen Artikel (Seiten 39-41) mit dem Titel Business und IT optimieren Geschäftsprozess‘. Damit war ich plötzlich wieder bei Hartmut Wedekind und Volker Stiehl.

Äußerlich fällt der Artikel in ‚Digital‘ zunächst dadurch auf, dass er Denglisch als Sprache benutzt. Nach dem englischen ‚Business‘ wird wohl der zweite Begriff in der Artikelüberschrift auch englisch ausgesprochen, also IT (ai-ti). In den Untertiteln geht es dann weiter mit ‚Business Process Excellence‘. BPM ARIS, webMethods, BPM mit IBM WebSpere, usw. Das hört sich alles so an, als ob es von Praktikern für Praktiker geschrieben sei. Was mich nur wunderte, der Artikel endet mit einer Bewertung nur der Produkte von IBM, Oracle und Software AG. Da ging mir – selbst als ehemaliger IBMer – der Hut hoch. Gibt es die SAP nicht mehr, oder hat der anonyme Autor nur ein Wissensloch? So fragte ich mich. Ich hoffe Letzteres. 

Dass so etwas vorkommt, ist allzu menschlich. Nur stört es mich, dass dies in einer Zeitschrift geschieht, die von der maßgeblichen wissenschaftlichen Fachgesellschaft in Deutschland (dem Stammsitz der SAP) als Pflichtlektüre an alle 20.000 Mitglieder verschickt wird. Natürlich hat die GI damit unmittelbar nichts zu tun – nur mittelbar. Die redaktionelle Verantwortung hat sie ja nicht. Wenn die ‚unabhängigen‘ Redakteure jedoch Unsinn verzapfen, fällt dies irgendwie auf die GI zurück. Ich habe mir deshalb erlaubt, den GI-Vorstand davon in Kenntnis zu setzen, dass ich die Sache als sehr unschön empfinde.

Der Vorfall veranlasst mich, doch noch ein paar Bemerkungen zu SAP und zur Dissertation von Volker Stiehl zu machen. Dank einer kurzen mündlichen Nachhilfe durch den Autor fühle ich mich dazu sogar in der Lage. 

Zu sehen ist die Arbeit vor dem Hintergrund der SOA-Diskussion. SOA blieb solange eine Architektur und ein leeres Versprechen, bis sich die großen Software-Anbieter entschlossen, ihre ‚monolithischen‘ Anwendungen zu zerschlagen und stattdessen eine Vielzahl kleiner wiederverwendbarer Komponenten vorzuhalten. In diese Richtung hat sich auch SAP bewegt. Es gibt jetzt nämlich eine Bibliothek, Enterprise Services Repository (ESR) genannt, mit etwa 3.000 Diensten. Sie sind  in WSDL beschrieben, passend für UDDI-Verzeichnisse. Diese Komponenten werden nicht als unabhängige Produkte, sondern als Teil der jeweiligen ERP-Anwendungen angeboten. Vermutlich haben andere Anbieter etwas Vergleichbares getan. 

Eine von mehreren möglichen Verwendungsweisen für diese Komponenten sind die so genannten Verbundanwendungen (engl. composite applications). Die kann der Kunde erstellen oder erstellen lassen, wenn immer neue Geschäftsprozesse kurzfristig unterstützt werden müssen. Nach mehreren schwächeren Vorgängern gibt es seit 2002 eine sehr ausgefeilte Notation für die Modellierung von Geschäftsprozessen, auf die Hartmut Wedekind im erwähnten Interview hinwies. Sie heißt Business Process Model and Notation (BPMN). Unter anderem erlaubt sie es, die Rollen der Akteure klar zu trennen. Wichtig ist dabei für Betriebswirte die Trennung zwischen Fachabteilung und Informatik-Bereich. 

Basierend auf BPMN unterstützt SAP unter dem Produktnamen Netweaver schon seit Längerem die Behandlung von Geschäftsprozessen. Volker Stiehls Dissertation baut auf diesen Werkzeugen auf und skizziert einen darüber hinausgehenden, umfassenden Ansatz. Die Arbeit hat den Titel Composite Application Systems - Systematisches Konstruieren von Verbundanwendungen unter Verwendung von BPMN. Beschrieben wird eine modellbasierte Anwendungsentwicklungsmethode, die drei Besonderheiten aufweist:
  • Konsequente Top-Down-Vorgehensweise
  • Strikte Trennung zwischen fachlichen und technischen Prozessen und
  • Durchgängige Verwendung von BPMN

Das Ziel ist es, ausführbare Programme zu erstellen, ohne auch nur ‚eine Zeile Code‘ schreiben zu müssen. Man beschränkt sich dabei allerdings auf moderne Web-Umgebungen und setzt mächtige Backend-Systeme voraus, die den größten Teil der eigentlichen Arbeit machen. Zwischen dem rein fachlichen Teil der Anwendung und den Backend-Systemen wird eine Pufferschicht vorgesehen (engl. Service Contract Implementation Layer), die alle nötigen Anpassungen zur Laufzeit vornimmt. Sie kann ebenfalls mittels BPMN spezifiziert werden. 

Um eine lose Koppelung zwischen Anwendung und Umgebung zu erreichen, kann die Verbundanwendung für die Geschäftsobjekte, auf denen sie operiert, beliebige Bezeichnungen und Datentypen wählen. Die Verknüpfung mit den im Backend-System benutzten Namen und Datentypen geschieht mittels einer Übersetzungstabelle (Cross-Reference-Tabelle genannt). Liegen die Eingabefelder (einschließlich ihrer Datentypen) fest, können die erforderlichen Bildschirmmasken generiert werden. Analog zu den Entwurfsmustern von Gamma et al. werden elementare Beispiele von Prozessen als BPMN Patterns vorgestellt (z. Bsp. Request/Reply, Polling). Es werden Erweiterungen von BPMN vorgeschlagen, die es unter anderem ermöglichen sollen, auch Geschäftsregeln im Prozess-Diagramm anzugeben. Diese Regeln kann man sich vereinfacht als Entscheidungstabellen vorstellen.

Diese hier skizzierte Vorgehensweise erinnert mich an einen uralten Traum vieler Informatiker, auf den auch Ernst Denert Bezug nimmt, nämlich den Wunsch, aus Bildern und Grafiken Code zu erzeugen. Wie konsequent dies hier wirklich realisiert worden ist, kann ich nicht beurteilen. Einen Rest an Skepsis werde ich nicht los, wenn ich daran denke, dass man ja auch diese Anwendungen testen sollte. Beim Testen (und manchmal auch danach) treten normalerweise Fehler in Erscheinung, die nicht bereits auf der Modellebene abgefangen wurden. Ein generatives System wird erfahrungsgemäß nur dann wirklich akzeptiert, wenn sich alle Fehler auf dem Niveau der Quellsprache erkennen und korrigieren lassen. Ich bin überzeugt, dass Volker Stiehl und seine Kollegen bei SAP sich in dieser Hinsicht keinen Illusionen hingeben.

Ein Buch, das auf dieser  Dissertation basiert, ist Ende 2012 im Buchhandel erschienen

Nachtrag

Die Besprechung des Buches von Stiehl gab Hartmut Wedekind in diesen Blog.

Montag, 12. September 2011

Information in der Informatik – erneuter Versuch einer Begriffsdefinition

Von Hans Diel, Albert Endres und Peter Hiemann

Schon seit längerer Zeit beklagen sich namhafte Informatiker, dass das Fachgebiet, welches den Begriff Information im Namen führt, eine kaum brauchbare Definition von Information verwendet. Längst haben sich andere Wissenschaften wie Biologie und Soziologie eigene und bessere Definitionen zugelegt. Unter Berücksichtigung der in diesen Disziplinen geleisteten Arbeit schlagen wir im Folgenden eine Definition vor, die auch für die Informatik nützlich sein könnte. Sie basiert auf Arbeiten eines der Autoren [1,2], die dieser bereits vor Jahren veröffentlichte. Die wesentlichen neuen Quellen, die wir verwenden, wurden in früheren Einträgen dieses Blogs ausführlich besprochen (Edelman. Luhmann). Nach unserer Meinung gibt es keine richtigen und falschen Begriffsdefinitionen, sondern nur hilfreiche und weniger hilfreiche. 

Die folgende Definition benutzt die übliche Dreiteilung in Syntax, Semantik und Pragmatik. Alle drei Aspekte gehören zusammen. Sie stellen nur unterschiedliche Sichten auf denselben Begriff dar. Um die Aufmerksamkeit nicht allzu sehr vom Hauptthema abzulenken, unterscheiden wir zwischen Grundbegriffen und Ergänzungen. Einige interessante Hinweise werden in der Form von Nebenbemerkungen (NBs) eingefügt.

Grundbegriffe

Signal: Stellvertretender Begriff für Beobachtung, Daten, Messung, Nachricht, Sinnesreiz oder Zeichenfolge. Es hat ein mediales Substrat und eine Form. Ersteres bestimmt, welche Sinne oder Geräte eingesetzt werden; letzteres wie die Differenz zum Hintergrund oder zur Umgebung erkannt werden kann. Das Medium wird in der Regel nicht verbraucht. Es kann zu einer neuen Form aktualisiert werden.

Information: Ein Tupel <s, i> bestehend aus einem Signal s zusammen mit einer möglichen Interpretation i. Möglich soll heißen, sie ist bereits bekannt oder wird irgendwann erfolgen.

NB: Informatisieren als Verb: Gedanklich erwogene Ideen oder einem Objekt inhärente Eigenschaften durch Signale darstellen, quasi eine Eigenschaft externalisieren. Beispiele sind die Tüte Mehl oder der Sack Kartoffeln im Laden, bei denen das Gewicht außen drauf steht. Wegen der zunehmenden „Informatisierung“ von Wirtschaft und Gesellschaft wird die Rolle von Information immer wichtiger. Reale Güter werden zurückgedrängt.

Syntax: Regeln, die zwischen Sender und Empfänger festlegen, welches die zugelassenen Formen für Signale sind, unabhängig von ihrer Bedeutung. Man kann diese Regeln als Protokoll oder Sprache bezeichnen. Protokoll ist weniger (anthropomorphisch) vorbelastet. Ein Protokoll kann eine Sprache als Teilaspekt beinhalten, etwa Deutsch oder Java. Einzelne ‚Worte‘ werden als Bausteine einer Aussage aufgefasst. Buchstaben (Alphabet) haben nur in einigen Sprachen eine syntaktische Funktion. Sie können ganz entfallen (wie im Chinesischen).

Semantik: Interpretation eines Signals. Der Empfänger ordnet dem Signal (oder Teilen davon) ein Sinn- oder Wirkkorrelat zu, auch Bedeutung genannt. Oder: Er fasst das Signal als Namen (Bezeichner) oder Symbol für etwas auf, das er damit verbindet (Bezeichnetes). Das Sinnkorrelat kann aus einem Objekt der realen Welt, einem Begriff oder Bild aus der gedanklichen Welt, oder einem neuen Signal bestehen. Das Wirkkorrelat verweist in der Regel auf einem Prozess, den der Empfänger beherrscht. Der anfängliche (ererbte) Vorrat an Sinn- und Wirkkorrelaten ist sehr gering (gegen Null tendierend), wächst aber im Verlauf einer Kommunikationsfolge oder eines Lebens an. Die Interpretation erfolgt (meist) im Moment des Empfangs. Sie kann auch ohne Ergebnis sein, d.h. das Signal bleibt ohne Bedeutung. Die Bezeichnung Korrelat soll darauf hinweisen, dass es keine Rolle spielt (oder nicht immer bekannt ist), wie die Elemente im Wertebereich der Interpretation ihrerseits repräsentiert werden.

NB1: Da Signale auch mehrdeutig sein können (z.B. Homonyme wie Ball, Bank und Schloss) muss der Interpreter manchmal den größeren Kontext des Signals feststellen. Dafür muss er unter Umständen tiefer in die Vorgeschichte einsteigen, oder zusätzliche Information beschaffen. 

NB2: Ein Computer kann Signale mittels eigener Werte und Prozesse interpretieren (z.B. als Zahlen und arithmetische Operationen). Die Werte werden ihrerseits immer durch Signale (Namen, Symbole) repräsentiert.

NB3: Eine sehr gebräuchliche Methode der Interpretation in der Informatik ist die Typisierung oder Kategorisierung. Sie kann in mehreren Stufen erfolgen, zuerst sehr grob (z.B. numerisch, Zeichenkette), dann immer feiner (z.B. Umsatz allgemein, Umsatz eines Monats, Produkts oder Kunden). Hierbei werden Signale interpretiert als Bezeichner für die Elemente einer Menge (eigentlich einer Multimenge). Bei den Einzelelementen spricht man auch von Instanzen, bei den Klassenbezeichnungen – sofern explizit angegeben – von Typen, Schemata oder Metadaten. Wenn immer Daten als Information und nicht nur als Signale verarbeitet werden, spricht man auch von semantischen Methoden.

Pragmatik: Bezug zu beteiligten Akteuren. Es existiert bzw. existierte mindestens ein Empfänger, der das Signal interpretieren kann oder konnte. Der Empfänger kann auch nur gedacht sein (noch nicht geboren sein). Er kann irgendwann in Erscheinung treten oder völlig abhandenkommen. Der Sender wird mitgezählt, sofern er intelligent ist. Je nach Vorgeschichte, Vorwissen und Können ändert sich der Zustand des Empfängers durch die Verarbeitung von Information. Die Veränderung kann temporäre oder langfristige Wirkungen haben. Verschiedene Empfänger interpretieren unterschiedlich, abhängig von ihrem Zustand. Oft hat die Übertragung von Information den Effekt (oder gar den Zweck), das Wissen des Empfängers zu vermehren. 

Ergänzende Begriffe

Sender/Empfänger: Organismus, Maschine oder System, die Information erzeugen oder verarbeiten können.

Zustand: Belegung einer Vielzahl von Variablen zu einem gegebenen Zeitpunkt. Jeder Sender und Empfänger hat immer einen durch viele Teilkomponenten bestimmten Zustand. In Analogie zum Computer kann man unterscheiden zwischen (a) den temporären Zustandsänderungen, die während der Interpretation des Signals passieren und (b) den Zustandsänderungen, die über die Interpretation des Signals hinaus Bestand haben. Diese werden als Wissen betrachtet (also auch Präferenzen und Erfahrungen), aber nicht als Können.

Wissen: Ansammlung von Aussagen über Objekte in der realen Welt oder Konzepte und Bilder in der gedanklichen Welt, die von einzelnen Sendern oder Empfängern für wissenswert gehalten werten. Der Interpreter trifft eine Auswahl bei der Speicherung dessen, was er für wichtig und wissenswert hält. Bei Menschen ist ein wichtiges (aber nicht das einzige) Kriterium, wie weit die betreffende Aussage für wahr oder falsch eingeordnet wird. Bei nicht-menschlichen Informationsverwertern ist es unklar, wie weit dieses Kriterium eine Rolle spielt.

NB: Individuen akquirieren und speichern Wissen sehr selektiv, abhängig von Interessen und Erfahrung. Es ist möglich, einmal Gewusstes (gezielt) zu vergessen. Zu wissen, was zu tun ist, heißt nicht, dass man es auch kann, also dazu fähig ist.

Können: Fähigkeit einen Prozess auszuführen, der Informationen oder den Zustand realer Objekte verändert. Kann bei Menschen durch Üben gestärkt werden. Kann automatisiert werden, d.h. vom Bewusstsein ins Unterbewusstsein verlagert werden.

NB: Menschen können einmal Gekonntes auch verlernen, scheint aber langsamer zu erfolgen als das Vergessen.

PS: Sollten diese Definitionen auf Interesse stoßen, könnten die Autoren sie mit Beispielen illustrieren oder ansatzweise formalisieren.

Quellen:
  1.  Endres, A.: Der Informationsbegriff – eine informatikorientierte Annäherung. Informatik Forsch. Entw. 18 (2004), 88–932. 
  2. Endres, A.: Wissen bei Menschen und Maschinen – eine informatikbezogene Betrachtung. Informatik Forsch. Entw. 18 (2004), 201-206