Montag, 12. September 2011

Information in der Informatik – erneuter Versuch einer Begriffsdefinition

Von Hans Diel, Albert Endres und Peter Hiemann

Schon seit längerer Zeit beklagen sich namhafte Informatiker, dass das Fachgebiet, welches den Begriff Information im Namen führt, eine kaum brauchbare Definition von Information verwendet. Längst haben sich andere Wissenschaften wie Biologie und Soziologie eigene und bessere Definitionen zugelegt. Unter Berücksichtigung der in diesen Disziplinen geleisteten Arbeit schlagen wir im Folgenden eine Definition vor, die auch für die Informatik nützlich sein könnte. Sie basiert auf Arbeiten eines der Autoren [1,2], die dieser bereits vor Jahren veröffentlichte. Die wesentlichen neuen Quellen, die wir verwenden, wurden in früheren Einträgen dieses Blogs ausführlich besprochen (Edelman. Luhmann). Nach unserer Meinung gibt es keine richtigen und falschen Begriffsdefinitionen, sondern nur hilfreiche und weniger hilfreiche. 

Die folgende Definition benutzt die übliche Dreiteilung in Syntax, Semantik und Pragmatik. Alle drei Aspekte gehören zusammen. Sie stellen nur unterschiedliche Sichten auf denselben Begriff dar. Um die Aufmerksamkeit nicht allzu sehr vom Hauptthema abzulenken, unterscheiden wir zwischen Grundbegriffen und Ergänzungen. Einige interessante Hinweise werden in der Form von Nebenbemerkungen (NBs) eingefügt.

Grundbegriffe

Signal: Stellvertretender Begriff für Beobachtung, Daten, Messung, Nachricht, Sinnesreiz oder Zeichenfolge. Es hat ein mediales Substrat und eine Form. Ersteres bestimmt, welche Sinne oder Geräte eingesetzt werden; letzteres wie die Differenz zum Hintergrund oder zur Umgebung erkannt werden kann. Das Medium wird in der Regel nicht verbraucht. Es kann zu einer neuen Form aktualisiert werden.

Information: Ein Tupel <s, i> bestehend aus einem Signal s zusammen mit einer möglichen Interpretation i. Möglich soll heißen, sie ist bereits bekannt oder wird irgendwann erfolgen.

NB: Informatisieren als Verb: Gedanklich erwogene Ideen oder einem Objekt inhärente Eigenschaften durch Signale darstellen, quasi eine Eigenschaft externalisieren. Beispiele sind die Tüte Mehl oder der Sack Kartoffeln im Laden, bei denen das Gewicht außen drauf steht. Wegen der zunehmenden „Informatisierung“ von Wirtschaft und Gesellschaft wird die Rolle von Information immer wichtiger. Reale Güter werden zurückgedrängt.

Syntax: Regeln, die zwischen Sender und Empfänger festlegen, welches die zugelassenen Formen für Signale sind, unabhängig von ihrer Bedeutung. Man kann diese Regeln als Protokoll oder Sprache bezeichnen. Protokoll ist weniger (anthropomorphisch) vorbelastet. Ein Protokoll kann eine Sprache als Teilaspekt beinhalten, etwa Deutsch oder Java. Einzelne ‚Worte‘ werden als Bausteine einer Aussage aufgefasst. Buchstaben (Alphabet) haben nur in einigen Sprachen eine syntaktische Funktion. Sie können ganz entfallen (wie im Chinesischen).

Semantik: Interpretation eines Signals. Der Empfänger ordnet dem Signal (oder Teilen davon) ein Sinn- oder Wirkkorrelat zu, auch Bedeutung genannt. Oder: Er fasst das Signal als Namen (Bezeichner) oder Symbol für etwas auf, das er damit verbindet (Bezeichnetes). Das Sinnkorrelat kann aus einem Objekt der realen Welt, einem Begriff oder Bild aus der gedanklichen Welt, oder einem neuen Signal bestehen. Das Wirkkorrelat verweist in der Regel auf einem Prozess, den der Empfänger beherrscht. Der anfängliche (ererbte) Vorrat an Sinn- und Wirkkorrelaten ist sehr gering (gegen Null tendierend), wächst aber im Verlauf einer Kommunikationsfolge oder eines Lebens an. Die Interpretation erfolgt (meist) im Moment des Empfangs. Sie kann auch ohne Ergebnis sein, d.h. das Signal bleibt ohne Bedeutung. Die Bezeichnung Korrelat soll darauf hinweisen, dass es keine Rolle spielt (oder nicht immer bekannt ist), wie die Elemente im Wertebereich der Interpretation ihrerseits repräsentiert werden.

NB1: Da Signale auch mehrdeutig sein können (z.B. Homonyme wie Ball, Bank und Schloss) muss der Interpreter manchmal den größeren Kontext des Signals feststellen. Dafür muss er unter Umständen tiefer in die Vorgeschichte einsteigen, oder zusätzliche Information beschaffen. 

NB2: Ein Computer kann Signale mittels eigener Werte und Prozesse interpretieren (z.B. als Zahlen und arithmetische Operationen). Die Werte werden ihrerseits immer durch Signale (Namen, Symbole) repräsentiert.

NB3: Eine sehr gebräuchliche Methode der Interpretation in der Informatik ist die Typisierung oder Kategorisierung. Sie kann in mehreren Stufen erfolgen, zuerst sehr grob (z.B. numerisch, Zeichenkette), dann immer feiner (z.B. Umsatz allgemein, Umsatz eines Monats, Produkts oder Kunden). Hierbei werden Signale interpretiert als Bezeichner für die Elemente einer Menge (eigentlich einer Multimenge). Bei den Einzelelementen spricht man auch von Instanzen, bei den Klassenbezeichnungen – sofern explizit angegeben – von Typen, Schemata oder Metadaten. Wenn immer Daten als Information und nicht nur als Signale verarbeitet werden, spricht man auch von semantischen Methoden.

Pragmatik: Bezug zu beteiligten Akteuren. Es existiert bzw. existierte mindestens ein Empfänger, der das Signal interpretieren kann oder konnte. Der Empfänger kann auch nur gedacht sein (noch nicht geboren sein). Er kann irgendwann in Erscheinung treten oder völlig abhandenkommen. Der Sender wird mitgezählt, sofern er intelligent ist. Je nach Vorgeschichte, Vorwissen und Können ändert sich der Zustand des Empfängers durch die Verarbeitung von Information. Die Veränderung kann temporäre oder langfristige Wirkungen haben. Verschiedene Empfänger interpretieren unterschiedlich, abhängig von ihrem Zustand. Oft hat die Übertragung von Information den Effekt (oder gar den Zweck), das Wissen des Empfängers zu vermehren. 

Ergänzende Begriffe

Sender/Empfänger: Organismus, Maschine oder System, die Information erzeugen oder verarbeiten können.

Zustand: Belegung einer Vielzahl von Variablen zu einem gegebenen Zeitpunkt. Jeder Sender und Empfänger hat immer einen durch viele Teilkomponenten bestimmten Zustand. In Analogie zum Computer kann man unterscheiden zwischen (a) den temporären Zustandsänderungen, die während der Interpretation des Signals passieren und (b) den Zustandsänderungen, die über die Interpretation des Signals hinaus Bestand haben. Diese werden als Wissen betrachtet (also auch Präferenzen und Erfahrungen), aber nicht als Können.

Wissen: Ansammlung von Aussagen über Objekte in der realen Welt oder Konzepte und Bilder in der gedanklichen Welt, die von einzelnen Sendern oder Empfängern für wissenswert gehalten werten. Der Interpreter trifft eine Auswahl bei der Speicherung dessen, was er für wichtig und wissenswert hält. Bei Menschen ist ein wichtiges (aber nicht das einzige) Kriterium, wie weit die betreffende Aussage für wahr oder falsch eingeordnet wird. Bei nicht-menschlichen Informationsverwertern ist es unklar, wie weit dieses Kriterium eine Rolle spielt.

NB: Individuen akquirieren und speichern Wissen sehr selektiv, abhängig von Interessen und Erfahrung. Es ist möglich, einmal Gewusstes (gezielt) zu vergessen. Zu wissen, was zu tun ist, heißt nicht, dass man es auch kann, also dazu fähig ist.

Können: Fähigkeit einen Prozess auszuführen, der Informationen oder den Zustand realer Objekte verändert. Kann bei Menschen durch Üben gestärkt werden. Kann automatisiert werden, d.h. vom Bewusstsein ins Unterbewusstsein verlagert werden.

NB: Menschen können einmal Gekonntes auch verlernen, scheint aber langsamer zu erfolgen als das Vergessen.

PS: Sollten diese Definitionen auf Interesse stoßen, könnten die Autoren sie mit Beispielen illustrieren oder ansatzweise formalisieren.

Quellen:
  1.  Endres, A.: Der Informationsbegriff – eine informatikorientierte Annäherung. Informatik Forsch. Entw. 18 (2004), 88–932. 
  2. Endres, A.: Wissen bei Menschen und Maschinen – eine informatikbezogene Betrachtung. Informatik Forsch. Entw. 18 (2004), 201-206

1 Kommentar:

  1. Am 12.9.2011 schrieb Gerhard Goos aus Karlsruhe:

    ich kann da nur sagen "na und?". Wenn Sie den ersten Abschnitt des ersten Kapitels von F.L. Bauer, G. Goos: Informatik - Eine einführende Übersicht, Bd. 1, Springer 1971, oder von G. Goos: Vorlesungen über Informatik, Bd. 1, Springer 1995, lesen, finden Sie, mit anderen Worten ausgedrückt, die gleiche Definition von "Information".

    Diese Definition war 1969/70 die Konklusion aus Auseinandersetzungen mit Kollegen, die unter allen Umständen den syntaktisch geprägten Informationsbegriff der Shannonschen Informationstheorie perpetuieren wollten. Ich kann Ihrem Text also keinen Neuigkeitswert bescheinigen. Es stimmt aber traurig, daß man im Jahr 2011 immer noch solche Definitionen wiederholen muss, weil es immer noch Kollegen gibt, die Information rein syntaktisch definieren wollen.

    Noch am selben Tag antwortete ich.

    zu meiner Schande gestehe ich, dass ich in letzter Zeit nicht mehr in die beiden von Ihnen erwähnten Bücher geschaut habe. Ich hätte mir einige Arbeit sparen können.

    Was wohl bei Ihnen weniger detailliert behandelt wird, ist der pragmatische Aspekt. Hier waren es vor allem die Biologen (Edelman) und Soziologen (Luhmann), die uns drei Rentner dazu motivierten, die Definition etwas zu präzisieren.

    Ich gebe Ihnen Recht, dass es bedauerlich ist, dass es immer noch viele Kollegen gibt, die mit dem Thema Schwierigkeiten haben.

    AntwortenLöschen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.