Mittwoch, 7. September 2011

Niklas Luhmann und die Informatik

Es gibt in meinen Augen kaum einen Autor außerhalb der Informatik, der für die Informatik interessanter und nützlicher ist als er, obwohl ihn kaum ein Informatiker kennt. Gemeint ist Niklas Luhmann (1927-1998). Sein Problem: Er war Jurist und Soziologe. Er wird daher in Informatik-Büchern nicht zitiert. Wer trotzdem versucht ihn zu lesen, muss eine neue Fachsprache lernen, das Soziologen-Deutsch. 

Luhmann war ein enorm fleißiger und systematischer Arbeiter. Der äußere Beweis waren seine Zettelkästen. Kommen andere Wissenschaftler vielleicht auf ein paar Hundert Literaturnachweise, bei ihm waren es zig Tausende. Auf den Vorderseiten enthalten seine Zettel die üblichen bibliografischen Angaben zuzüglich Schlagwörtern, auf der Rückseite eine Zusammenfassung des Inhalts, soweit relevant. Heute ist die Universität Bielefeld stolz diesen Schatz zu besitzen.

Warum Luhmann für die Informatik wichtig ist, liegt an den Themen, zu denen er fundierte Aussagen machte. Im Folgenden greife ich vier Themen heraus: System, Information, Kommunikation und Komplexität. Meine Ausführungen basieren auf seinem bekannten zweibändigen Werk Die Gesellschaft der Gesellschaft (5. Auflage, 1998). Ich zitiere teilweise wörtlich, auch ohne dies besonders zu kennzeichnen.

Vorwegschicken möchte ich, dass ich Luhmanns Definitionen nicht unbedingt als optimal für die Zwecke der Informatik ansehe. Sie führen jedoch alle deutlich über das hinaus, was Informatiker heute in ihren Lehrbüchern finden. Sie können daher helfen, zu einem besseren Begriffsgerüst zu gelangen, als wir es heute haben.

Systembegriff

Ein System ist ein meist komplexes Gebilde, das zunächst dadurch charakterisiert wird, dass es zwischen sich und der Umwelt unterscheidet. Während Informatiker und Mathematiker (als jedweder Bedeutung abholde Strukturwissenschaftler) sofort damit beginnen, sich für die Art und die Form der internen Struktur zu interessieren, ist diese an sich von relativ geringer Bedeutung. Es können konzentrische Kreise sein, ein binärer Baum, ein radial strahlender Stern, mehrdimensionale Gitter oder aber Zellklumpen oder gar Wolkenformationen. Die wichtigsten Eigenschaften eines Systems sind davon nicht betroffen. Viel wichtiger als die innere Struktur ist, ob und wie das System mit der Umwelt interagiert und ob es ein Gedächtnis hat.

Es gibt geschlossene und offene Systeme. Ein System ist geschlossen, wenn die Umwelt keinen Einfluss hat. System und Umwelt können sich gleichzeitig verändern. Ein offenes System nimmt Veränderungen in der Umwelt laufend zur Kenntnis. Es verarbeitet Information über die Umwelt. Die Grenzen des Systems können sich ändern und verschieben, bleiben aber immer klar definiert. Ein System kann nicht nur ein Gedächtnis bezüglich des eigenen Zustands haben, sondern auch bezüglich des Zustands der Umwelt. Ein System hat interagierende Komponenten und kann sich in Subsysteme aufteilen. 

Von ganz besonderem Relevanz in Biologie und Soziologie ist die Frage, ob ein System sich selbst reproduzieren oder selbst seine Existenz sichern kann. Die interessantesten Systeme tun genau das. Luhmann und andere Soziologen verwenden (in Anlehnung an den chilenischen Biologen Humberto Maturana) dafür das Attribut ‚autopoietisch‘. Es ist dies die Übersetzung von ‚selbsterzeugend‘ ins Altgriechische. Ich werde im Folgenden dieses ungewohnte Fremdwort nicht benötigen.

Informationsbegriff

Durch Information kommt eine Auswahl zwischen verschiedenen Möglichkeiten zustande. Es wird Unsicherheit reduziert. Information entsteht nicht beim Schreiben, sondern erst beim Empfang, nicht beim Sender, sondern erst beim Empfänger. Der Informationsgehalt ist die Änderung im Zustand des sie verarbeitenden Systems, also des Empfängers. Information ist ein Ausdruck des system-internen Zustands. Je komplexer ein System, desto mehr Information besitzt es.

Nicht Informationen werden übertragen, sondern nur Nachrichten. Nachrichten haben ein mediales Substrat und eine Form. Ersteres bestimmt, welche Sinne oder Geräte eingesetzt werden; letzteres wie die Differenz zum Hintergrund oder zur Umgebung erkannt werden kann. Das Medium wird in der Regel nicht verbraucht. Es kann zu einer neuen Form aktualisiert werden.

Information ist nur dann Information, wenn sie neu ist. Eigentlich kann sie nicht wiederholt werden. Geschieht dies doch, dann aus pädagogischen oder sozialen Gründen. Alles Bekannte ist nämlich Nicht-Information. Information kann sowohl Wissen wie Unwissen (falsches Wissen) produzieren. 

Ein Redner kann auch ohne Information kommunizieren, etwa durch Schweigen. Beim Schreiben dagegen liegt der Schwerpunkt auf der Informationserzeugung. Ein Redner kann leichter erfahren, ob er verstanden wird, als ein Schreiber. Eine Schrift muss mit Lesern rechnen, die mehr wissen als der Autor. Sie kann Unmögliches fixieren, was erst später geglaubt wird.

Die Informationsgesellschaft verwendet besonders viel Zeit auf die Produktion und den Konsum von Information. Ein Teil davon bleibt jedoch ungenutzt.

Begriff der Kommunikation

Eine Kommunikation besteht immer aus drei Komponenten: der Information, der Nachricht (bei Luhmann heißt dies Mitteilung) und dem Verstehen. Sie beginnt, sobald man zwischen den drei Komponenten unterscheiden kann. Während Information und Nachricht meist zeitlich zusammenhängen, kann das Verstehen mit Verzögerung erfolgen.

Kommunikation setzt Annahme oder Ablehnung voraus. Eventuell gibt es Rückfragen oder Zweifel. Kommunikation findet nur dann statt, wenn sie verstanden wird. Sie kann auch abgelehnt werden, obwohl man sie versteht. Wer kommuniziert weiß, dass er kommuniziert (d.h. er reflektiert). Der Anlass von Kommunikation ist Nicht-Wissen. Um neues Wissen zu erzeugen, wird Wissen vorausgesetzt. Es ist unrealistisch anzunehmen, dass jemand weiß, was er nicht weiß.

Bei der Telekommunikation gehen die räumlichen und zeitlichen Beschränkungen gegen Null. Computer können auch unter sich kommunizieren, wenn sie sich gegenseitig fragen, was sie noch nicht wissen. Dadurch wird Kommunikation von der Gesellschaft entkoppelt. Es verschwindet auch die Autorität der Quelle. An die Stelle des personalisierten Vertrauens tritt Systemvertrauen.

Eine Gesellschaft ist nicht eine Ansammlung von Menschen, sondern ein System der Kommunikation. Nur wer kommuniziert, ist Teil der Gesellschaft. Die Gesellschaft vollzieht sich in der Kommunikation. Eine moderne Gesellschaft besteht in der Regel aus mehreren funktionalen Subsystemen, die sich ihre eigenen Grenzen geben.

Begriff der Komplexität

Komplexität entsteht durch Ausdifferenzierung immer neuer Objekte und Lebensformen. Sie ist ein Nebeneffekt der Evolution (nicht ihr Ziel) und der Geschäftstätigkeit. Durch Differenzierung gelingt es, flexibler auf die Umwelt zu reagieren. Systeme dienen der Reduktion von Komplexität, indem sie vereinfachte Annahmen über ihre Umwelt machen. Die Interaktion mit der Umwelt wird auf wenige Operationen reduziert. Aus Überraschungen wird Information. Es werden (gedankliche) Strukturen gebildet. Jedes System hilft dabei, ‚Sinn‘ zu schaffen, d.h. Veränderungen zu erkennen, die nützlich und sinnvoll sind. Luhmann benutzt das Wort Sinn immer in Anführungszeichen. Bei Systemen, die der Evolution unterliegen, kann ich zwar erahnen, was er damit meint. Bei Systemen im Allgemeinen kann ich ihm nicht mehr folgen.

Zum Schluss noch ein schöner Satz von Luhmann, den ich auch nicht verstehe: „Je höher die Systemkomplexität, desto wahrscheinlicher sind Innovationen.“ Vielleicht kann mir ein Leser ihn erklären.

Ausblick

Soweit also Luhmann. Dass sein Informationsbegriff große Ähnlichkeiten aufweist mit dem, was ich in einem früheren Beitrag über die Lebenswissenschaften geschrieben habe, ist an sich keine Überraschung. Luhmann geht voll in die Richtung der semantischen Auffassung, dass Information erst durch Interpretation entsteht. Beide Auffassungen sind für die Informatik nicht ganz befriedigend, Der Testfall, an dem meine derzeitigen Gesprächs­partner und ich uns verhaken, ist der im obigem Beitrag zitierte Satz:

Ein Buch, das nicht gelesen wurde, enthält genauso viel Information wie ein Buch, das nie geschrieben wurde, nämlich keine.
Mit dieser Auffassung können wir, d.h. Hans Diel, Peter Hiemann und ich, uns nicht anfreunden. Für uns enthält das nicht-gelesene Buch Information – vorausgesetzt es enthält Texte oder Bilder, die von Menschen verstanden werden, die zu einem ähnlichen Kulturkreis gehören wie der Autor. Meine Leserinnen und Leser können erwarten, dass wir das Thema Informatik und Informationsbegriff nochmals aufgreifen werden, sobald wir etwas zu sagen haben.

Keine Kommentare:

Kommentar veröffentlichen