Im Dezember letzten Jahres hatte ich das
Megathema Digitalisierung und seine spezielle Ausprägungsform als Big Data
unter die Lupe genommen. Unter der Überschrift eScience richtete sich dabei der Blick auf die verschiedenen
Wissenschaftsgebiete. Von den Ingenieurwissenschaften und der Mathematik ausgehend
strahlt die Informatik inzwischen in alle Naturwissenschaften aus, so in
Astronomie, Biologie, Chemie, Physik bis zur Zoologie. Auch die Human- oder
Geisteswissenschaften profitieren von ihr, so Geschichte, Kunst, Medizin,
Philologie und Soziologie. Wie schon öfters im Laufe der knapp 70-jähigen
Geschichte der Informatik haben immer wieder Fachbegriffe den Charakter von
Schlagworten erhalten. Heute ist dies ohne Zweifel der Begriff der
Digitalisierung.
Begriffsbildung und Verbreitung
Der Begriff Digitalisierung bezeichnet technisch
die Überführung analoger Größen in digitale
Darstellungen (Bits, Bytes), zu dem Zweck, sie
elektronisch zu speichern oder zu verarbeiten. Bei Texten oder Bildern, die
auch auf Papier vorliegen, wird das Ergebnis der Digitalisierung oft als Digitalisat
bezeichnet. Es hat dann die Form einer Datei, die auf einer CD, einer
Magnetplatte oder aber im Netz gespeichert ist. Im Falle von Archiven und
Bibliotheken setzte die systematische Digitalisierung vor etwa 20 Jahren ein.
Die normale betriebliche Datenerfassung und Datenverarbeitung begann vor rund
100 Jahren in digitaler Form, wobei Lochkarten, Lochstreifen und Magnetbänder
die damals vorherrschenden Trägermedien waren. Es wird geschätzt, dass im Jahre
1993 etwa 3 % aller Daten digital erfasst wurden. Heute sind es nahezu 95 %.
Gleichzeitig wachsen die absoluten Mengen der überhaupt maschinell erfassten
Daten.
Das exponentielle Anwachsen der Datenmengen, die pro Tag und Jahr weltweit anfallen, also entstehen und erfasst werden, ist die bestimmende Eigenschaft des aktuellen Trends. Diese ‚Datenexplosion‘ wird erst durch die Digitalisierung ermöglicht. Aufgrund der potentiellen Vernetzung aller Datenquellen entsteht der Eindruck eines epochalen Durchbruchs. Im Zeitungs- und Verlagswesen ersetzt die Digitalisierung nicht schlagartig alle heutigen Formen des Publizierens. Sie ergänzt diese. Dass sie als Erstes alle neuen und wichtigen Wissens- und Wirtschaftsgebiete erfasste, liegt auf der Hand. Digitale Bibliotheken [1] entstanden daher zuerst in technischen Unternehmen und in wirtschaftlichen Organisationen.
Das exponentielle Anwachsen der Datenmengen, die pro Tag und Jahr weltweit anfallen, also entstehen und erfasst werden, ist die bestimmende Eigenschaft des aktuellen Trends. Diese ‚Datenexplosion‘ wird erst durch die Digitalisierung ermöglicht. Aufgrund der potentiellen Vernetzung aller Datenquellen entsteht der Eindruck eines epochalen Durchbruchs. Im Zeitungs- und Verlagswesen ersetzt die Digitalisierung nicht schlagartig alle heutigen Formen des Publizierens. Sie ergänzt diese. Dass sie als Erstes alle neuen und wichtigen Wissens- und Wirtschaftsgebiete erfasste, liegt auf der Hand. Digitale Bibliotheken [1] entstanden daher zuerst in technischen Unternehmen und in wirtschaftlichen Organisationen.
Digitalisierung in Wirtschaft und Verwaltung
Kollege Peter Mertens von der Universität Erlangen-Nürnberg kritisiert in einem Institutsbericht
[2] die inflationäre
Benutzung des Begriffs Digitalisierung. Er hat über 300 Wortschöpfungen registriert,
die den Begriff Digital enthalten. Meist sind es Komposita (z. Bsp.
Digitalangst, Digitalrausch) oder eine Attribut-Substantiv-Konstruktion (z.
Bsp. digitale Euphorie, digitaler Imperativ). Eine ähnliche Inflation hat das
Attribut 4.0 erfahren, wobei Industrie 4.0 ohne Digitalisierung nicht auskommt.
Schlagworte wie Digitalisierung und Industrie
4.0 würden einerseits für Werbemaßnahmen missbraucht, andererseits dienten sie als Dekorationen von Anträgen für öffentliche Fördermittel. Was inhaltlich
dahintersteckt sei eher sekundär, wenn nicht sogar Stand der Technik von vor 30
Jahren. Im Falle von Industrie 4.0 nennt Mertens einige Beispiele für die
‚Subsumption von Vorhandenem‘. Er weist auch darauf hin, dass die
Digitalisierung keine Einbahnstraße ist. Die fortschreitende Technik lässt auch
neue Formen der analogen Kommunikation und Interaktion zu (z. Bsp. haptische
und optische Zeichenübertragung). Bekanntlich gab es auch in Deutschland in der
Vergangenheit eine Reihe von Informatik-Großprojekten ̶ vor
allem im öffentlichen Bereich ̶ die Schwierigkeiten hatten ihre
Versprechungen zu erfüllen. Beispiele sind die Gesundheitskarte und die
LKW-Maut. Wären die Projekterfahrungen für eine technisch-wissenschaftliche
Analyse zugänglich, könnte dies der ganzen Branche helfen. Abenteuerlust und
Selbstvertrauen allein reichen nicht aus, um neue anspruchsvolle Vorhaben mit
Aussicht auf Erfolg in Angriff zu nehmen.
Digitalisierung und die demokratische
Gesellschaft
Die Zeitschrift Spektrum der Wissenschaft (Heft 1/2016) enthält ein so genanntes
Digital-Manifest. Der Appell ist überschrieben: 'Digitale Demokratie statt Datendiktatur'.
Es handelt sich um zwei Artikel, hauptsächlich von schweizerischen Wissenschaftlern
verfasst. Deutsche Autoren, die mit unterzeichneten, sind Gerd Gigerenzer aus Berlin und Roberto Zicari aus Frankfurt. Sie warnen
vor der Aushöhlung der Bürgerrechte und der Demokratie durch die ‚digitale
Technikrevolution‘. Sie befürchten die ‚Automatisierung der Gesellschaft und
die Fernsteuerung ihrer Bürger durch Algorithmen‘.
Big Data könnte zum Big Nudging (wörtlich: großes
Anstupsen) führen. Gemeint ist, dass mächtige Drahtzieher nicht nur die
öffentliche Meinung beeinflussen könnten, sondern direkt einzelne Mitglieder
der Gesellschaft steuern könnten. Attentate wie die in Paris ließen sich dank
der Kontrolle über den Netzverkehr und die Informationsinhalte gezielt
herbeiführen, ohne dass die Beteiligten vorher in speziellen Camps ausgebildet
werden müssten. Sie verweisen auf den Stadtstaat Singapur und die Volksrepublik
China, da dort Ansätze dieser Entwicklung zu erkennen seien. Als Gegenmaßnahmen
wird ein Zehnpunkteplan vorgeschlagen. Ich erspare es mir, alle zehn Punkte
wiederzugeben. Erinnert wird an das Recht der Informationellen Selbstbestimmung, so wie es in Deutschland 1983 als Folge des Volkszählungsurteils
vom deutschen Verfassungsgericht etabliert wurde. Außerdem solle weltweit die
‚kollektive Intelligenz‘ gefördert werden. Schließlich plädiert man für nichts
weniger als eine `Digitale Aufklärung‘. [Immanuel Kant wird endlich aufs
Altenteil verschoben. Das Wort ‚digital‘ gehörte nämlich noch nicht zu seinem
Repertoire].
Peter Hiemann aus Grasse, der den Lesern aufgrund seiner Beiträge zu diesem Blog
bekannt sein dürfte, schrieb dazu:
Mir ist aufgefallen, dass der
Verhaltensbegriff 'Nudging' (Richard Thaler: "Nudge: Wie man kluge Entscheidungen
anstößt“) seit seiner Einführung 2008 bei der akademischen Welt anscheinend großen
Anklang gefunden hat. Ich fand Jaron Laniers Begriff 'Sirenserver' wesentlich
treffender, um auf gefährliche Tendenzen der IT-Technologie hinzuweisen. Frank
Schirrmacher hat in seinem Buch „EGO – Das Spiel des Lebens“ einen
hervorragenden Abriss der geistigen Entwicklung des „homo oeconomicus“
geliefert. Er kommt zu dem Schluss: „Und so bizarr es manchen heute noch
vorkommen wird, eine der Grundfragen unserer Zukunft wird sein, wozu wir die
Maschinen erziehen, ehe sie nicht nur in automatisierten Finanzmärkten, sondern
auf allen Gebieten so erwachsen geworden sind, dass sie selbst uns erziehen.“
Die Ansichten beider Autoren wurden im Blogbeitrag über Lanier (am 12. Oktober 2014) ausführlich gewürdigt.
Ich bin ziemlich sicher, dass der akademische
Appell 'Digitale Demokratie statt Datendiktatur' nichts an den Zielsetzungen
und Plänen von Google & Co ändern wird. Das Spiegel-Gespräch mit Larry Page
(Spiegel 43/2015) macht das sehr deutlich. Bei der Auseinandersetzung mit den
Gefahren einer Datendiktatur geht es um das Thema 'Autonomie'. Die
Auseinandersetzung zwischen Eliten der akademischen Welt und den Eliten der IT-Unternehmen
wird nichts beitragen, um grössere Bevölkerungsgruppen zu mehr autonomen Denk-
und Verhaltensweisen zu veranlassen. Das Thema 'Autonomie' erfordert vor allem
erhöhte Aufmerksamkeit von politischen Eliten und deren Entscheidungsträgern.
Auch akademischen Eliten wird nichts Anderes übrig bleiben, als sich mit
leichtfertigen Ansichten politischer Eliten 'anzulegen'.
Digitalisierung im Privatbereich.
Außer diesen im öffentlichen Bereich
wirkenden Aktionen und Maßnahmen hat die Digitalisierung auch enorme private
Folgen. Längst hat das digitale Fernsehen (abgekürzt HD für High Definition)
überall Einzug gehalten. Dadurch hat sich Senderauswahl und Bildqualität
erheblich verbessert. Das digitale Fernsprechnetz (zuerst ISDN, dann DSL, UMTS
und LTE) erlaubt Datenraten im Bereich von mehreren 100 Mbits/sec. In
Verbindung mit einem lokalen Hausnetz (WLAN) kommen Geräte wie Smartphones und
Tablets voll zur Geltung. Sie
ermöglichen die Bearbeitung von E-Mails und das Konsumieren von Zeitungen,
Zeitschriften und Büchern an jedem Ort und in jeder Position, inklusive
zusätzlicher Bilder und Videos. Fernseh-Sendungen und Kinofilme laufen ab, ohne dass man sich
vorher auf ein einheitliches Abendprogramm einigen musste, bei dem alle Anwesenden
denselben Flimmerkasten anstarren müssen. Die moderne Technik erfordert allerdings
einen Flatrate-Vertrag. Dadurch wird der Datenumfang irrelevant. Ob Megabytes
oder Gigabytes pro Sitzung übertragen werden, interessiert nicht mehr.
Noch zwei Details aus persönlicher Erfahrung Ich habe es zum ersten Mal fertig gebracht,
völlig ohne das Versenden von papierner Weihnachtspost auszukommen. Von dem etwa
ein Dutzend empfangener papierner Grußkarten kamen je die Hälfte von
Privatpersonen und von Unternehmen. Ich
benutze weiterhin analoge Telefone von fast jedem Zimmer unseres Hauses aus.
Die Telekom hatte den Plan auch meine Installation über das Internetprotokoll
(Voice over IP) an ihr derzeit bevorzugtes Ortsnetz anzuschließen. Sie musste
ihren Plan aufgeben. Ich besitze nämlich einige ‚exotische‘ Geräte und
Funktionen, für die eine Migration zum IP-Netz nicht vorgesehen ist. Es wird
daher ein letztes analoges Reservat im Hause bestehen bleiben.
Vom wehleidigen Jammern zur konstruktiven
Kritik
Jede Generation hat den Wunsch und auch das
Recht, ihre Ziele und ihre Probleme selbst zu definieren. Natürlich lässt sich
die Vorgeschichte nicht ganz zur Seite schieben. Ich selbst habe mich immer
lieber an der Definition von Zielen und Aufgaben beteiligt als an der reinen Kritik
des Ist-Zustands. Das Zielesetzen zwingt einen automatisch dazu auch die
Probleme, die es heute gibt, zu berücksichtigen.
Technische Ziele für unsere Branche hat sich
auch die Gesellschaft für Informatik (GI) abgerungen. Unter der Federführung ihrer
damaligen Vizepräsidenten Simone Rehm wurden fünf große Herausforderungen (engl. grand challenges) formuliert. Sie
sind eine Stufe konkreter als die beiden oben beschriebenen ‚Revolutionen‘. Bei
Revolutionen gibt es oft wenige Agitatoren, die antreiben, und viele, die
getrieben werden. Genau das kann in der Politik passieren, aber auch anderswo.
Im Wirtschaftsleben ist es aber nicht das, was man sich wünschen sollte. Lässt
man das R am Anfang weg, kommt man zu Evolutionen. [Nicht zu verwechseln mit der
Evolution]. Da fehlt das planerische Element vollkommen. Für das, was zwischen
Evolution und Revolution liegt, haben wir kein gutes (Fremd-) Wort. Gemeint ist
ein sich selbst verbesserndes Wachsen oder Reifen, ein von Erfahrung
gesteuertes Lernen.
Was mir bei den genannten großen
Herausforderungen zu fehlen scheint, ist die Ernsthaftigkeit des Bemühens und
eine Art von Verantwortungsgefühl. Würde man die Probleme ernst nehmen, würde
man nicht sofort wieder zur Tagesordnung übergehen. Diejenigen, die die
Herausforderungen definiert haben, tun so als ob sie damit ihre Schuldigkeit getan
hätten. Greift niemand diese Ziele auf und entwickelt einen Aktionsplan, der
zum Erreichen führt, dann sind dafür ‚die Anderen‘ schuld. Man selbst ist sich
dafür zu schade oder aber ̶ was wohl eher zutrifft ̶ dazu nicht in der Lage. Ich lasse mich gerne korrigieren, sollte ich zu skeptisch sein.
Der Weimarer politischen Erfahrung verdanken
wir es, dass im Grundgesetz ein Konstruktives Misstrauensvotum verankert ist.
Verallgemeinert heißt dies: Kritisieren ist derart leicht, dass es sinnvoll, ja
nötig ist, es an Lösungsvorschläge zu koppeln. Oder wer nicht sagen kann, wie man
eine Sache besser machen kann, möchte bitte den Mund halten. Zu einem ähnlichen
Ergebnis führt die Alltagspsychologie. Gut ist es, wenn man Kritik vermeiden
oder verpacken kann. Die manchmal notwendige Kritik an Mitarbeitern versteckte
ich früher am liebsten in ein Zielgespräch. Wenn ich sehr häufig Zielgespräche
führte, oder wenn ich Ziele wiederholte, konnten die Mitarbeiter daraus
schließen, dass es eigentlich hätte besser laufen können. Richtig schlimm wurde
es erst dann für einen Mitarbeiter, wenn ich keine Lust mehr hatte, Ziele zu
vereinbaren. Dort waren Hopfen und Malz verloren. So umschreibt dies der
Volksmund.
Referenzen
- Endres, A., Fellner, D.W.: Digitale Bibliotheken ̶ Informatik-Lösungen für globale Wissensmärkte. Heidelberg 2000
- Mertens, P., Barbian, D.: Digitalisierung und Industrie 4.0 ̶ Moden, modische Überhöhung oder Trend? Arbeitsbericht Nr. 1/2015; Wirtschaftsinformatik I, Universität Erlangen-Nürnberg
Nachtrag im Januar 2017
Ein weiterer Beitrag, der das Thema D behandelt, erscheint im Januar 2017 in diesem Blog. Dabei steht die Sicht von Autoren und Lesern im Vordergrund.
Als ich vor 15 Jahren die Referenz [1] in einer Stuttgarter Buchhandlung suchte und sie weder unter Computer noch unter Informatik fand, wurde mir geraten das Buch in der Sektion Architektur zu suchen. Dort fand ich es dann auch neben Le Corbusier und Weißenhof-Siedlung.
AntwortenLöschenOtto Buchegger schrieb: Interessant der Hinweis, dass die Begriffe bevorzugt verwendet werden, für die es Fördermittel gibt.
AntwortenLöschen