Dienstag, 28. Oktober 2014

Kant und die augmentierte Vernunft

Die im Jahre 1787 erschienene Kritik der reinen Vernunft gilt als das bekannteste Werk des Königsberger Philosophen Immanuel Kant (1724-1804). Es hat seither viele deutsche und auch ausländische Denker beschäftigt. Kants über 200 Jahre alten Begriffe seien kurz erläutert: Die Vernunft ist das Vermögen, die Verstandeserkenntnis zu ordnen, also nach Prinzipien zu denken. Die reine Vernunft umfasst die Fähigkeit des menschlichen Denkens, Erkenntnisse ohne Rückgriff auf vorhergegangene sinnliche Erfahrung zu erlangen. Diese Erkenntnisse sind a priori, da ihre Wahrheit ohne Überprüfung in der Erfahrung feststellbar ist. Kant beantwortete mit der Schrift die Frage, was wir wissen können. Man nennt das auch Erkenntnistheorie. Das Wort Kritik ist als Analyse und Überprüfung zu verstehen, nicht als Herabsetzung.  

Da selbst Kant die reine Vernunft nicht für ausreichend hielt, folgte im Jahr darauf die Kritik der praktischen Vernunft. Er beantwortete mit dieser Schrift die Frage, was wir tun sollen. Dabei geht es um Moral und Ethik. Kant formulierte darin den bis heute berühmten kategorischen Imperativ. Fügen wir noch zwei Fragen hinzu, nämlich: Was dürfen wir hoffen und was ist der Mensch? Antworten zur ersten der beiden Fragen bezeichnet man als Metaphysik. Mit den vier Fragen ist ein vollständiger Bogen beschrieben für eine Tätigkeit, die man als Philosophieren bezeichnet. Genau von diesen vier Grundfragen lässt sich der Münsteraner Unternehmer, Physiker und Programmierer Jörg Friedrich leiten. Der Titel seines 2012 erschienenen Buches lautet Kritik der vernetzten Vernunft. Er stellt uns die Frage: Brauchen wir eine neue Philosophie aufgrund des Internets, eine spezielle Internet-Philosophie, und wenn ja, wie sähe sie aus? Statt nur über die vernetzte Vernunft will ich anhand des Buches von Friedrich genereller über angereicherte, also augmentierte Formen von Vernunft reflektieren. Einige zusätzliche Gedanken drängen sich auf. 

Erkenntnistheorie

Die reine Vernunft (im Sinne Kants) gestattet es uns zu denken. Das Denken befasst sich primär mit Sachverhalten, die wir wissen oder wissen möchten. Das, was wir als Wissen bezeichnen, sind (größtenteils nur) Überzeugungen, für die wir Gründe angeben können oder die nicht sinnvoll bezweifelt werden können. Bezüglich des eigenen Wissens kann man sich irren. Auch ist man sich über den Grund seiner Überzeugungen (sein Überzeugungsnetz) nicht immer genau bewusst. Das Wissen anderer Menschen kann man anzweifeln, gemeint ist dessen Wahrheitsgehalt. Wer es tut, muss dafür Gründe angeben. Alle Aussagen über die Zukunft sind unsicher, da man kein Erfahrungswissen benutzen kann.

Unser Wissen hängt davon ab, was der Einzelne bzw. die Menschheit als Ganzes kann, d.h. was man technisch beherrscht. Technik ist alles, was Menschen gut können. Sie ist nicht von Gerätschaften abhängig, wie etwa die Atem- oder Lauftechnik. Unser eigenes Gedächtnis ist trügerisch. Man kann es jedoch auslagern. Nur benötigt man eine Brücke, um zu den Daten zu gelangen. Zwischen den Dingen sowie zwischen den Dingen und uns befindet sich ein mehrdimensionales Netz. Es verbindet in örtlicher, zeitlicher und logischer Hinsicht. Wie im Englischen sollte man unterscheiden zwischen einem Netz (engl. net) und einem Gewebe (engl. web, dt. Spinnweb). Im Netz gibt es Knoten und Ordnung, im Gewebe nicht. Unser Schulwissen ist immer (zuerst) ein Netz. Es entpuppt sich jedoch im Laufe des Lebens zum Gewebe. Das Gewebe und ihr zugänglicher Inhalt wachsen und schrumpfen, je nach Nutzung. Schreibt man ein Buch, ist man gezwungen, das Gewebe als Fäden darzustellen. Es entsteht ein lineares, eindimensionales Abbild. 

Um die Realität zu beschreiben, werfen wir ein Netz von Begriffen über sie. Da die Realität komplex ist, speichern wir (möglichst) nur Idealbilder. Das ist keine Schwäche des Menschen, sondern pure Notwendigkeit. Es reduziert die Komplexität. Die Wissenschaft arbeitet nur mit Idealbildern. Auch die Technik versucht immer ideale Dinge herzustellen, kann es jedoch nicht. Die Welt, die ein Mensch sich vorstellt, ist nicht die Realität, sondern nur ein Bild derselben. Es kann ein Idealbild sein. Von der Realität wissen wir nur, dass es sie gibt. Ein Wissenschaftler erforscht die Realität, indem er Bestätigungen für sein Weltbild sucht. Begriffe haben wir nicht ererbt. Sie müssen erlernt werden. Sie ändern sich und bilden sich neu. Man kann heute nicht mehr sagen, dass die Vernunft im Gehirn zuhause sei. Das Gehirn kontrolliert nur die Enden von Fasern, an denen unser Wissen hängt. Die Masse unseres Wissens residiert in einem Netz bzw. Gewebe, das wir Gedächtnis nennen. Wir benutzen auch externe Gedächtnisse, etwa Bücher oder das Internet. 

Soweit der Physiker Friedrich. Hätte er sich etwas mit Biologie befasst, wüsste er, dass kein Mensch mit a-priori-Wissen auf die Welt kommt. Es ist ausschließlich eine Folge der persönlichen Historie, welches Wissen er erwirbt oder wieder vergisst. Ich halte es für übertrieben im Internet viel mehr zu sehen als Bücher, Filme und Zeitungen, die schnell, billig und an vielen Orten gleichzeitig verfügbar sind. Abgesehen vom (teilweise künstlich erzeugten) Gefühl der Allgegenwart, Gleichzeitigkeit und Kostenlosigkeit ist es nichts grundsätzlich Neues. Das Internet als ein einziges großes Buch anzusehen, ist zu optimistisch. Man muss nämlich zwischen den Inhalten nach Sprache unterscheiden, es sei denn man nimmt an, dass alles bei Bedarf übersetzt wird. Noch ist der größte Teil in Englisch. Bald wird jedoch Mandarin, also Pekinger Chinesisch, den ersten Platz einnehmen. Es ist verdammt wenig, was ein Mensch ohne Zugriff auf Wissen, also ohne Inhalte, denken kann. 

Ethik

Die praktische Vernunft (im Sinne Kants) sagt uns, wie wir handeln sollen. Unser Handeln wird von einer Hierarchie der Gewissheiten und des Glaubens bestimmt. Mit einer Kultur hat sich die vernetzte Vernunft ein Zuhause geschaffen. Der Wilde ist unberechenbar aus Sicht der vernetzten Vernunft. Ein Troll ist jemand, der sich keiner Kultur fügt, auch nicht der Internet-Kultur.  

Das Handeln des Einzelnen wird durch die Technik(en) bestimmt, die er beherrscht. Sobald man weiß, was man kann, muss man sich entscheiden, was man will. Meist schwankt man zwischen konkurrierenden Anreizen. Man handelt vernünftig, wenn man die Gründe für das Handeln angeben kann. Für das Erlernen neuer Handlungsmöglichkeiten sind wir auf andere Menschen angewiesen. Eine Gemeinschaft (Familie, Verein, Unternehmen, Kirche, Partei oder Staat), in der man lebt, definiert, was als Gemeinwohl gilt. Oft ist das Gemeinwohl das, was die Gemeinschaft stabil hält. Die Gemeinschaft kann Gesetze erlassen, die aber nicht mit Naturgesetzen vergleichbar sind. Basisdemokratische Bewegungen, wie die Flash mops im Internet, sind meist richtungslos. Politisches Handeln ohne Leiblichkeit, d.h. Kontakt zu realen Menschen, macht wenig Sinn. Die Pflichten in der Gesellschaft werden immer mehr verwässert. Deshalb gewinnt unser Gewissen an Bedeutung. Es urteilt intuitiv, also ohne Begründung. Es wurde durch die Kultur geformt, in der wir entscheidende Phasen unseres Werdegangs verbracht haben. Man kann darauf vertrauen, dass das Gewissen anderer Menschen meinem ähnelt, sofern sie aus derselben Kultur stammen. Die Unerträglichkeit der Verhältnisse oder die Sehnsucht nach Neuem können zum Bruch mit der vernetzten Vernunft führen, ja zu Revolutionen.  

Soviel über Ethik von einem Unternehmer namens Friedrich. Mit dem Begriff des Gewissens scheint er sich nicht recht wohl zu fühlen. Es gilt heute als eine Art von Rückzugsraum des Individuums. Der Antrag auf Kriegsdienstverweigerung von Jürgen Trittin wurde seinerzeit abgelehnt, weil er nur politische Gründe, aber keine Gewissensgründe vorbrachte. Ein sehr akutes ethisches Problem, das der Autor nicht erwähnt, ist zum Beispiel die Frage der Priorität von Menschenrecht vor Völkerrecht. Im Kosovo-Konflikt argumentierte Joschka Fischer für das Menschenrecht. Im Syrienkonflikt verhinderten China und Russland eine Beendigung des Einsatzes von Giftgas gegen das eigene Volk. Sie führten das Völkerrecht ins Feld, ein Recht, das es seit dem Westfälischen Frieden von 1648 gibt. 

Metaphysik

Es gehört heute zu den Aufgaben der Wissenschaft, sich der größten Erzählungen der Menschheit anzunehmen, so der Entstehung des Alls und des Lebens. Sie tut sich recht schwer dabei. Oft wird gefordert, dass man die Folgen neuer Technologien im Voraus abschätzen sollte. Leider kann man dabei nur empirisch vorgehen. Ein Paradies zu erwarten, wäre unsinnig. Jede Technik, von der wir Vorteile erwarten, hat andere Probleme zur Folge. Oft ist es eine Frage des Temperaments, ob man zum Fortschrittsucher tendiert, oder zum ewig Leidertragenden.  

Nicht nur bei Jörg Friedrich hat es die Metaphysik schwer. Nach den Schamanen verloren die Theologen die Unterstützung durch die Gesellschaft. Dass die Wissenschaft an ihre Stelle tritt, scheint nahezuliegen. Es ist aber noch nicht sicher, ob dies gut geht. Erste Zweifel regen sich. Mal ist es die Atomindustrie, die zum Umdenken zwingt, mal sind es die Utopisten wie Ray Kurzweil. Immer mehr Menschen machen von sich reden, für die Wissenschaft keine Rolle spielt oder gar Vorbehalte haben. Das können Christen sein, die Darwins Evolutionslehre bekämpfen, oder Islamisten, die das mittelalterliche Denken des Propheten Mohammed hochhalten. 

Was ist der Mensch?

Auch dieser Frage widmet Jörg Friedrich einige Seiten. Hat man ein Idealbild des Menschen vor Augen, so entspricht dies möglichst der Vorstellung, die man von sich selbst hat. Andere sehen eher den Wolf im Menschen oder ein anderes Rudeltier, das von Instinkten geleitet wird. Nicht der Verstand wird als kennzeichnend angesehen sondern die Gefühle. Das ist der Fall beim Amokläufer oder beim IS-Terroristen, beim Extremsportler am Himalaya oder dem randalierenden Hooligan. 

Überhaupt bereitet die Definition des Menschseins über seinen Verstand und seine Vernunft gewisse Schwierigkeiten. Auch vor 500 Jahren, also vor der Entdeckung der Vernunft während der so genannten Aufklärung, lebten in Europa Menschen. Dasselbe Attribut gilt für die heutigen Urwaldbewohner Brasiliens, und erst recht für alle Kinder und Demenzkranken. Was ist das wirklich Bestimmende des Menschen? Vielleicht der freie Wille oder das Bewusstsein? Sie zu definieren, würde ein weiteres Buch erfordern. Ansätze dafür findet man unter anderem in einem früheren Blogeintrag. 

Schlussbeobachtung

Es ist erfrischend zu sehen, wie viel man über wichtige Gebiete der Philosophie sagen kann, fast ohne Fremdworte zu verwenden. Auch kommt man mit der Nennung eines einzelnen Philosophen schon sehr weit. Die von Jörg Friedrich im Anhang erwähnte Hannah Arendt (1906-1975) entstammt einer Zeit, die Dinge erlebt hat, die Kant wohl nicht für möglich hielt. Sie spricht von der ‚Banalität des Bösen‘, nachdem sie 1961 in Jerusalem den Eichmann-Prozess verfolgt hatte. Zeitzeugen der Bluttaten von Ruanda und Srebenica mögen ähnlich über die Menschheit denken. Das Böse ist nicht dominierend, aber wegleugnen kann man es auch nicht. 

NB. Dem Rezensenten fielen die vier Karikaturen von Ute Hamelmann sofort ins Auge. Sie ist keine Unbekannte.


Am 1.11.2014 schrieb Hartmut Wedekind aus Darmstadt:


Kritik der vernetzten Vernunft à la Wedekind: Vorneweg ein Kant-Bildchen mit den berühmten drei "Instanzen ":   Vernunft,  Verstand,  Erfahrung. 
                                                                               c)
                                           a)                          <----------
                    Vernunft  ---------->  Verstand  ---------->  Erfahrung  
                         |      |                                            d)
                          -----
                            b)
 
Bedeutung 

a) Vernunft befasst sich mit dem Verstand und erteilt seinem Angestellten (KrV B 671) einen Auftrag, u.a. Bitte um mehr Präzision. Die Vernunft ist transsubjektiv, sie ist praktisch. Der Verstand ist theoretisch. 

b) Vernunft befasst sich mit sich selbst, kritisch (zurück auf ihre Grundlagen gehend), nicht dogmatisch (von oben herab) oder naiv (wie die Kinder). 

c) Erfahrung beeinflusst den Verstand. Sie ist gleichsam eine erste Quelle der verstandesmäßigen Erkenntnisse. 

d) Verstand, wenn er rein oder erfahrungsfrei ist,  beeinflusst aber auch aus sich die Erfahrung. Er übersteigt die Erfahrung. Die Rückkopplung ist typisch Kant: Wenn nicht gleich alle unsere Erkenntnis mit der Erfahrung anhebt (c), so entspringt  sie darum doch nicht eben alle aus Erfahrung  (d)  (Einleitung KrV)  d) ist z. B.  die netzgestaltende ISO-OSI/Abstraktionshierachie, die die Erfahrung mächtig beeinflusst. 

Prädikate (Eigenschaften) :

Vernunft : Sie ist ausspähend ( K. sagt spekulativ), weil ihre Erkenntnisse über die Erfahrung hinausreichen. Sie ist bloß regulative (regelnd),  

Verstand: Es könnte vieles gesagt werden. Wichtig für mich ist die Kantische Feststellung, dass der Verstand diskursiv ist, der Verstand redet, im Zweifel mit sich selbst. Die Anschauung ist intuitiv (sie schaut und redet nicht, Sammlerakivität)). Begriffe sind die Angelegenheit des Verstandes. Der Verstand ist durch Begriffe selbst Urheber der Erfahrung (B 127). Das stützt  nochmals den Pfeil d) 

Die Vernunft folgt Vernunftsbegriffen (Ideen). Der große Nachteil ist, dass solche Venunftsbegriffe kein Schema haben, d.h. ich kann keinen universellen Aspekt  angeben, wie man das bei Gegenständen der Erfahrung leicht tun kann

Dienstag, 21. Oktober 2014

Zerstörerische Innovationen aus dem Silicon Valley verändern die Welt

Im Jahre 1912, also vor über 100 Jahren, definierte Joseph Schumpeter (1883-1950) die Aufgabe eines Managers als schöpferische Zerstörung. Im Jahre 1997 stellte Clayton Christensen (Jahrgang 1952) die zerstörerische Innovation (engl. disruptive innovation) der erhaltenen Innovation (engl. sustaining innovation) gegenüber. Es sei das Dilemma eines Unternehmers, dass er, um ein erfolgreiches Geschäft am Leben zu halten, vor allem an erhaltende Innovationen denken muss. Der Markt zwingt ihn, die Wünsche vorhandener Kunden ernst zu nehmen. Damit besiegele er gleichzeitig den Untergang, da er den wirtschaftlichen und technischen Fortschritt vernachlässige, der nicht durch kontinuierliche Verbesserungen, sondern durch neue, umwälzende Technologien zu erreichen sei. Im Grunde sind kreative Zerstörung und zerstörende Innovation das Gleiche. Es sind zwei Sichten auf denselben Prozess. Es lassen sich andere Gegensatz-Paare bilden. So ist der Gegensatz zur kreativen Zerstörung die ersatzlos vernichtende Zerstörung, etwas das nicht eines klärenden Studiums würdig ist. Christensens Begriffspaar ist nützlicher und präziser.  

Der stellvertretende Vorstandsvorsitzende des Axel-Springer-Verlags Christoph Keese erklärt uns, wie wichtig das von Christensen beschworene Dilemma ist und wie anderswo systematisch dagegen angekämpft wird. Das einzige Anderswo, das heute etwas zählt, heißt Silicon Valley. Sein im Jahre 2014 erschienenes Buch hat den Titel: Silicon Valley  ̶  Was aus dem mächtigsten Tal der Welt auf uns zukommt. Der Axel Springer Verlag hatte letztes Jahr vier leitende Mitarbeiter zu längeren Aufenthalten in das Tal geschickt, ‚aus dem unsere Zukunft kommt‘. Sie sollten dem Konzern auf die Sprünge helfen. Was sie nach ihrer Rückkehr intern geändert haben, ist Außenstehenden bisher noch verborgen geblieben. Kai Diekmann, einer der vier ‚visiting fellows‘ und Chef der Bildzeitung, ließ sich immerhin zwischenzeitlich einen Bart wachsen. Da der Autor sich nicht damit zufrieden gab, eine (weitere) Anklageschrift gegen die USA zu verfassen, ist das Buch sehr anregend und lesenswert. 

Akademischer Kern und Ursprung

Keese hatte Anfang der 1980er Jahren als Austauschschüler schon einmal ein Jahr in San Jose verbracht. Jetzt bezog er mit Frau, drei schulpflichtigen Kindern und lateinamerikanischem Dienstpersonal ein Einfamilienhaus in Palo Alto. Der monatliche Mietpreis betrug 8000 US $. Von dort konnte er in maximal 30 Minuten alle relevanten Firmen und Institutionen erreichen. Wird gefragt, was das Silicon Valley so besonders macht, lautet die eindeutige Antwort: die dort ansässige private Universität Stanford. Einige der Staatsuniversitäten Kaliforniens (z. B. Berkeley und Los Angeles) haben ebenfalls Weltruf, haben aber nicht dieselbe Ausstrahlungskraft. Nur so viel: Schon die Erwähnung von zwei Professoren der Elektrotechnik (Frederick Terman, John Hennessy) und zwei Firmengründungen (Hewlett-Packard, Google) würde ausreichen, um den geradezu mystischen Ruf Stanfords zu begründen. Nur sind es nicht zwei, sondern einige Tausend Firmen, die im Umkreis von Stanford entstanden sind. Dafür erhält Stanford nicht nur Lob. Um dem Argument entgegen zu treten, dass Stanford sich nur noch als Brutstätte von Weltfirmen verstehe, wird auf seine wissenschaftlichen Leistungen auf vielen Gebieten verwiesen, sowie auf die Zahl der Nobelpreisträger. Wie heißt es doch so schön, Neid muss man sich verdienen. Das gilt für Einzelpersonen wie für Institutionen. 

Globales Versuchslabor und unternehmerische Spielwiese

Haben die genannten Namen den Nimbus des Silicon Valley begründet, so kommen inzwischen tatendurstige Männer (Frauen sind kaum vertreten) aus der ganzen Welt ins Silicon Valley, um hier ihre Ideen zur Produktreife zu bringen und in einen Geschäftserfolg zu verwandeln. Neben den Amerikanern aus dem ganzen Land, ja vom ganzen Kontinent, sind es vornehmlich Chinesen, Inder, Japaner, Koreaner und Vietnamesen. Aus Europa kommen Briten, Deutsche und Franzosen. Die Ausländer haben die Mehrheit, wenn auch knapp. An die Hippies früherer Jahrzehnte erinnern nur die Kapuzenpullis und die Sandalen. Statt der Struktur der Gesellschaft wollen sie die Struktur der Wirtschaft verändern. Wer heute die Welt verändern will, meint Keese, der wirft keine Steine auf Polizisten, sondern wird Programmierer. Es sind Querdenker. Sie haben kein Interesse Autos, Banken oder Telefone zu verbessern. Sie wollen sie ersetzen. 

Sie kommen meist mit einer vagen Idee und begeben sich damit in einen Schmelztiegel. Anstatt ihre Idee für sich zu behalten, sprechen sie darüber mit andern Innovatoren und potentiellen Geldgebern. Man verfasst keine Dokumente oder Prospekte, sondern baut einen Prototyp. Nur damit kann man andere Ingenieure und Programmierer überzeugen. Dass man sich dabei selbst ausbeutet, ja 70 Stunden pro Woche arbeitet, ist unvermeidlich. Feedback von andern Spezialisten ist jedoch Gold wert. Bei Ingenieuren zu bestehen, darauf kommt es an, nicht bei Kaufleuten. Diese haben im Silicon Valley wenig zu sagen  ̶  stellt Keese etwas überraschend fest. 

Geld folgt Kreativität, und umgekehrt

Nicht nur die Ideen aus der ganzen Welt strömen ins Silicon Valley, auch das Geld. Nur hier gibt es Wagniskapital im Überfluss. Es wird auf jährlich über 15 Mrd. US $ geschätzt. Es kommt aus denselben Ländern wie die Innovatoren. Die Kapitalgeber können davon ausgehen, dass alle sich lohnenden Projekte sich im Umkreis von 50 km befinden. Der Rest der Welt ist uninteressant. Eine Ausnahme bildet Israel – wie ganz am Schluss nochmals bemerkt. 

Was auch unternommen wird, um die Spreu vom Weizen zu trennen, es wird gemunkelt, dass die Ausfallrate für Geldgeber fast 90% beträgt, d.h. nur jede zehnte Investition lohnt sich. Daraus folgt, dass die Gewinner einen sehr hohen Ertrag haben müssen, um für die Verluste zu kompensieren. Die Investitionen erfolgen stufenweise. Die Anfangsphase, auch Bootstrapping genannt, trägt meist der Innovator selbst. Erst wenn ein Prototyp vorliegt, kommt Fremdkapital ins Spiel (als Series A Funding bezeichnet). Alle weiteren Stufen hängen vom Projektfortschritt ab. Bezüglich des Fortschritts eines Projekts kann man sich durch Besichtigung vor Ort überzeugen oder durch Rückfragen in der Szene. Vor allem ist es wichtig, wer noch in ein Projekt investiert. Der erfahrene Investor richtet sich nicht nur nach dem vermuteten Wert der Innovation, sondern auch nach der Person des Innovators. Er muss außer einer Vision auch Ehrgeiz und Kompetenz haben. 

Das Besondere des Silicon Valley ist, dass es das Prinzip der Lokalität nicht zu überwinden versucht – wie von den Apologeten des Internet gefordert  ̶  sondern sie voll ausnutzt, und zwar für die technische wie die kaufmännische Kommunikation. Oder anders gesagt: Über Prinzipien und Trends mögen andere streiten. Wir halten uns an Fakten und Bewährtes. 

Mehr zur Mentalität von Erfindern und Innovatoren

Seit den Erfolgen von Steve Jobs bei Apple weiß jedes Schulkind, dass Nachfrage erst vom Erfinder geschaffen wird. Wer Kunden fragt, wird nur bessere Pferdekutschen oder bessere Benzinautos bauen. Das ist die Logik, die zu erhaltenden Innovationen und zum Untergang großer Unternehmen führt. Entscheidend ist, das man vom Problem ausgeht und nicht von vorhandenen Lösungen. Ein Fachmann braucht Fachwissen für seine Arbeit, aber keine Bücher. Ein Musikfreund möchte Musik hören und keine Platten auflegen, usw. Wer das Problem auf neue und bessere Art löst, macht die Innovation, zu der das Geld fließt. 

Im Silicon Valley gelten Überzeugungen, die anderswo nicht so radikal vertreten werden. Zeit ist Geld, das weiß jeder. Im Valley sind drei Monate eine Ewigkeit. Schreibt man ein Pflichtenheft, wird ein Produkt leicht überfrachtet. Ein Prototyp dagegen muss zeigen, ob er das als zentral erkannte Problem löst, mehr jedoch nicht. Features dürfen später kommen. Vor allem ist es wichtig, dass man Fehler als solche erkennt und daraus Konsequenzen zieht. Ein Projekt, das nicht 'pivotet', ist verdächtig. Auf Deutsch heißt dies, man lässt es kreiseln. Es gilt der Slogan: ‚Beim nächsten Mal machen wir bessere Fehler.‘

Netzeffekte führen zu Monopolen

Über den Unterschied von digitalen und analog/physikalischen Produkten ist schon viel geschrieben worden, auch in diesem Blog. Keese beschäftigt sich sehr ausführlich mit Netzeffekten. Sie seien wichtiger als Skaleneffekte. Dabei erinnert er an Bob Metcalfes Gesetz. Danach steigt der Wert eines Telefons mit dem Quadrat der Nutzer, genau mit n*(n-1). In einem Netz mit fünf Nutzern gibt  es maximal 20 Verbindungen. Fünf neue  Nutzer in einem Netz von 100 Knoten fügen über 1000 neue Verbindungs-möglichkeiten hinzu. Deshalb führen Netze fast automatisch zu Monopolen. Zum Glück bestehen im Internet diese Monopole nicht ewig. Sie werden aber nur durch umwälzende Innovationen zerstört. Apple hat mit iTunes voll von Netzeffekten profitiert, so hat Google mit seiner Suchfunktion. Apple konnte innerhalb weniger Jahre einen Marktanteil von 74 % im digitalen Musikmarkt erreichen. Durch das Streaming-Angebot von Spotify kann der Markt genauso schnell zerstört werden. Google hat in Deutschland über 90% Anteil beim Suchen im Internet. 

Wegen der Monopolisten bilden sich asymmetrische Märkte. Das sind Märkte mit starken und schwachen Teilnehmern. Wegen des Internets verlieren Künstler ihre Tantiemen und Verlage ihre Gewinne. Konsumenten und Plattformen gewinnen jedoch. Deshalb kam sich Keese auch so schwach vor, als er im Jahre 2010 mit einer Delegation des Weltzeitungsverbands bei Google vorsprach. Ganz herablassend erklärte Google: Wir tun nur das, was am besten ist für unsere Kunden. Die Rücksicht auf andere Marktteilnehmer passt da nicht hinein. Es ist keine Frage: Alles was digitalisiert werden kann, wird digitalisiert. Deshalb sind nicht nur Musik- und Zeitungsverlage bedroht. Das Bankwesen hat so gut wie keine Chance unverändert zu überleben. Wenn dann noch so grobe Schnitzer gegen das Interesse der Kunden passieren, wie die Einführung einer 23-stelligen IBAN-Nummer, wird dies den Prozess beschleunigen. 

Nach der Umwandlung des Markts der digitalen Güter, können auch physische Güter durch digitale Funktionen erweitert oder verbessert werden. Die Zimmervermittlung Airbnb greift die Hotelketten an; das Mitfahrer-Portal Uber die Taxi-Unternehmer. In beiden Fällen werden große Ineffizienzen im Markt beseitigt. Keese kommt immer wieder auf die Automobilindustrie zu sprechen. Google könnte Daimler oder BMW übernehmen, wenn es dies für sinnvoll hielte. Heute bauen Autohersteller ihre Fahrzeuge außer mit (überteuerten) Navigations- und Sicherheitsfunktionen vor allem mit Unterhaltungselektronik aus. In Wirklichkeit könnten Autos zu Einkaufsberatern und –begleitern werden, aber nur wenn Google dies zulässt. Google hat nicht nur die erforderlichen Karten, es kennt auch jedes Geschäft und jedes Restaurant auf der Welt mit deren Angeboten. Es wäre ein Leichtes diese Information mit Daten zu persönlichen Präferenzen zu verknüpfen. Google könnte diese Weiterentwicklung des Autos vollziehen, leichter als Daimler und BMW dies können. Es ist bezeichnend, dass laut Umfragen sogar deutsche Bürger mehrheitlich das Auto der Zukunft nicht von der deutschen Autoindustrie sondern aus dem Silicon Valley erwarten, nämlich ein selbstfahrendes Elektro-Auto.

Hal Varians Wegweiser ins Internet

In den letzten Jahren gilt in der ganzen Welt eine Frage als unausweichlich, wollen Planer den Wert eines Investitionsvorschlags ermitteln: Was würde Google tun? Der Journalist Jeff Jarvis überschrieb 2009 ein Buch mit dieser Frage. Keese fand dagegen die Antwort zu derselben Frage in einem Buch von Carl Shapiro und Hal Varian von 1999, also schon zehn Jahre früher. Das Buch heißt ‚Online zum Erfolg‘. Es beschreibt acht Strategien, die ein Unternehmen im Internet verfolgen sollte. Sie lauten:
 
  1. Maximiere Leistung und Wert deiner Angebote
  2. Nutze offene Standards, wo es sie gibt
  3. Suche Verbündete
  4. Schütze dein Geistiges Eigentum (engl. intellectual property)
  5. Bleibe innovativ
  6. Bewege dich schnell
  7. Dringe in benachbarte Märkte ein
  8. Setze eigene Standards und verschaffe ihnen Geltung 

Keese hat festgestellt, dass Google diese Strategien alle genauestens befolgt hat. Schließlich hat Google den Autor und Wirtschaftsprofessor Varian angestellt. Er leitet jetzt die Planungsabteilung von Google. Nach dem bisher Gesagten sind sieben der acht Strategien selbst erklärend. Nur mit Strategie (7) können Unternehmen, die ein Monopol erreicht haben, in Schwierigkeiten geraten. Bekanntlich gelten Monopole an sich nicht als schlecht. Sie sind angreifbar, wenn sie ihre Macht missbrauchen.  

Genau das werfen die von Googles Aktivitäten betroffenen Branchen, z.B. die Verleger, heute Google vor. Google sieht dies natürlich anders. Sein Such-Monopol kann im Nu verloren gehen, sollte jemand eine bessere Technik (als das Page Ranking) in den Markt bringen. Es ist möglich, dass Google gezwungen sein wird, anschließend aus einer seiner anderen Fähigkeiten einen Zugang zu Nutzern schaffen. In Frage kommen das Video-Angebot (Youtube) oder die Karten (Google Maps). Google hat in der Vergangenheit viele Investitionen in Eigenentwicklungen getätigt, die keine großen Erfolge wurden (z.B. Google+, Google Health). Neuerdings spielen Akquisitionen eine große Rolle (Nest, Titan, Waze). Laut Keese bereitet Google damit den Einstieg in neue Märkte vor. Auffallend ist, dass alle diese Märkte Querbeziehungen aufweisen. 

Für Deutschland empfohlene Maßnahmen

Keese beschreibt unter anderen einen deutschen Unternehmer, der nach einem Besuch seinen Eindruck so zusammenfasste: ‚Bei denen im Silicon Valley piepst es. Sie interessieren sich überhaupt nicht für das, was wir denken.‘ Keese schließt sich dieser Meinung offensichtlich nicht an, sondern überlegt sich, was wir in Deutschland vom Silicon Valley lernen könnten. Ich gebe nur eine Auswahl wieder. 

Unsere Kinder sollten nicht nur gesprochene Sprachen lernen, sondern auch Java, C++, PHP oder Python. Sie kämen sonst wie Kaspar Hauser in die Stadt. Wir müssten ihnen sagen, was Algorithmen sind. Wir müssten ihnen Debattierkultur antrainieren und den Wagemut für ‚disruptive‘ Innovationen. Die Universitäten müssten ein Klima des Erfindens bieten. Jede Großstadt müsse eine Weltklasse-Universität haben. 

Es müsse in Deutschland ein Markt für Wagniskapital entstehen, wo nicht nur Deutsche sondern auch Ausländer ihr Geld hinbringen. Dabei könnten wir von Israel lernen. In Israel ist der Einsatz von Wagniskapital doppelt so hoch wie in den USA und siebzehn Mal so hoch wie in Deutschland. Wir sollten eine Kultur des Scheiterns fördern. Wer nie gescheitert ist, hat nichts versucht. Wir sollten nicht mehr Regulierung fordern, sondern weniger. 

Anstatt einer Kritik

Wie eingangs bemerkt, gehe ich davon aus, dass Keese nur das erzählt hat, was keine Relevanz für seine Branche, das Verlagswesen, hat. Ich halte es für enorm wichtig, dass uns Deutschen der Spiegel vorgehalten wird, wenn wir behaupten, dass wir die besten Schulen, die besten Universitäten, die besten Ingenieure und die besten Informatiker hätten. Dass Keese als Journalist nur von Programmierern spricht, wenn er Informatiker meint, ist ein leicht zu verzeihender Fehler. 

Keese nennt keinen Zeitraum, wenn er vorschlägt, zu versuchen mit Israel gleichzuziehen. Ich nehme an, dass er weiß, dass dies mehr als einer Generation bedarf, also mindestens 30 Jahre. Wenn man bedenkt, dass das Phänomen Silicon Valley, das er beschreibt, keine 20 Jahre alt ist, muss man sich fragen, ob in 30 Jahren das Ziel überhaupt noch in dieser Form existieren wird. Keeses Silicon Valley ist die Antwort auf Probleme, wie sie sich um die Jahrtausendwende ergaben, also nach dem ersten Internet-Boom, wo jeder, der sich nur in Richtung Internet bewegte, zum Goldgräber geworden war. Das heutige Valley hat die Funktion eines Siebs und eines Durchlauferhitzers. Die Probleme. die wir in 30 Jahren haben werden, werden bestimmt andere sein. Mit den Ländern aufzuholen, die heute führen, mag nicht ausreichen. 

NB. Danken möchte ich Hartmut Wedekind, der mich auf Keeses Buch aufmerksam machte. Ich rechne es ihm hoch an, obwohl Keese Wedekinds Alma Mater Berkeley als Hort der Romantik bezeichnet.

Nachtrag am 23.10.2013:

Heute machte mich Otto Buchegger aus Tübingen auf folgenden Tweet aufmerksam. Er stammt von Wolfgang Blau, dem bisherigen Chefredakteur von ZEIT-Online. Da brodelt es wohl in Verlegerkreisen.

'Nachdem er die deutschen Verleger bloßgestellt hat, bittet C. Keese um 5-jähriges Sabbatical. Habe widerrufliche Gratiseinwilligung erteilt'

NB. Ich möchte hinzufügen, dass es hier m. E. nicht um Fakten sondern um Spott geht. Der Begriff 'widerrufliche Gratiseinwilligung' spielt auf das vom letzten Bundestag verabschiedete Leistungsschutzrecht an, das maßgeblich von Keese gestaltet wurde zum Schutz deutscher Verleger vor Google.

Mittwoch, 15. Oktober 2014

Medieninformatik als Studium und Beruf

In einem Blog-Eintrag vom Februar 2014 über Bindestrich-Informatiken schrieb ich: 

Alle andern Bindestrich-Fächer [außer Wirtschaftsinformatik] stellen nach meinem Dafürhalten Schmalspur-Fächer dar. In einigen Fällen handelt es sich auch um eine Abstimmung per Prüfungsordnung gegen eine als übertrieben empfundene Mathematik-Belastung im regulären Informatikstudium. Ein Medizin-Informatiker wird weder als Arzt voll akzeptiert, noch als Informatiker. Dasselbe gilt für Geo-, Medien-, Verkehrs- und Verwaltungs-Informatiker. Niemand würde einem Medien-Informatiker journalistische Fähigkeiten zutrauen. Früher gab es einmal die Begriffe Hauptfach und Nebenfach. Sie fielen der Bologna-Reform zum Opfer.

Obwohl ich auch heute noch zu dieser Aussage stehe, will ich im Folgenden das Fach Medieninformatik näher beleuchten. Dabei will ich nicht nur das Studium allein betrachten. Man muss auch an den Beruf denken, auf den es vorbereiten soll. 

Von der Medientechnik zur Medieninformatik

Die Medien und speziell die neuen Medien, auch digitale Medien genannt, stehen sehr stark im öffentlichen Bewusstsein. Viele Leute glauben, dass sie für Demokratien, und mehr noch für Diktaturen, eine maßgebliche Rolle spielen. Andere Leute fühlen sich übermäßig belästigt, ja manipuliert.

Denkt man an Berufe und Ausbildung, so überwiegt die Beschäftigung mit der Medientechnik. Das ist ein sehr weites Feld und lässt sich zum Beispiel in Druck-, Audio-, Foto-, Video- und Übertragungstechnik aufteilen. Druck- und Verlagswesen gehört dazu, aber auch Rundfunk und Fernsehen. Zum Berufsbild gehören handwerkliche, künstlerische, technische und kaufmännische Aspekte. Anwendungen sind in der Unterhaltung, der Lehre, in der Produktdokumentation und der Werbung. Dem gegenüber befasst sich Medienwissenschaft mit Fragestellungen, wie der Rolle von Medien in der Gesellschaft oder für Einzelne. Es ist bevorzugt eine sprach- und geisteswissenschaftliche Analyse von historischen Entwicklungen. Der bekannte aber umstrittene Satz von Marshall McLuhanThe medium is the message‘ steht stellvertretend für die nicht endende Diskussion um den Einfluss und die Wirkungsweise der Medien.

Das Verhältnis von Medientechnik zu Medienwissenschaft ist nicht unähnlich dem von Informationstechnik  ̶  heute vielfach mit Informatik gleichgesetzt  ̶  und der Informations­wissenschaft. Die Medieninformatik ist der Zugang zur Medientechnik mit den Methoden und Hilfsmitteln der Informatik. Es ist ein Synonym für die Beschäftigung mit ‚neuen‘ Medien. Die ‚neuen‘ Medien sind vorwiegend computer-basiert oder computer-gesteuert und werden vom Internet zusammengefasst und verstärkt.

Studium der Medieninformatik

Der Bachelor-Studiengang von sechs Semestern wird sowohl an Hochschulen (frühere FHs) als auch an Universitäten angeboten. Die Zahl der Hochschulen überwiegt sogar sehr deutlich. Der Grund: Das Fach wurde zuerst an Fachhochschulen (FHs) eingeführt, und zwar zuerst 1990 an der FH Furtwangen im Schwarzwald. Die Universitäten zogen  ̶  wie so oft  ̶  erst später nach. Obwohl einige Universitäten technische Fächer stiefmütterlich behandeln, würde ich trotzdem zu einem Universitätsstudium raten. Universitäten bieten eine ganz andere Atmosphäre, vor allen kann man (ohne Klimmzüge) an einer Uni promovieren. Ein FH-Studium ist so gesehen eine Sackgasse. Weitere allgemeine Angaben zum Studium bieten der Server Studieren.de und Medien-studieren.net.

Bei der Suche nach möglichen Studienorten fällt auf, dass die großen technischen Universitäten wie KIT Karlsruhe, TU München, TU Darmstadt und RWTH Aachen fehlen. Zwei Gründe kann ich mir denken. Sie haben ohnehin genug Informatik-Studenten, oder sie haben Schwierigkeiten, den journalistischen Teil der Ausbildung anzubieten. Trotzdem würde ich einem Studienort den Vorzug geben, wo eine starke  Informatik-Kompetenz vorhanden ist. Aufgrund einer oberflächlichen Recherche würde ich folgende Rangordnung aufstellen: 
  1. TU/FU Berlin: Eher sozialwissenschaftlich ausgerichtetes Studium, d.h., es geht um den  Erwerb technikbezogener und gesellschaftsbezogener Kenntnisse und Fähigkeiten. Pluspunkte: starke Software-Gründerszene, interessante Stadt
  2. LMU München: Studieninhalte siehe unten. Pluspunkte: zwei gute Unis am Ort, interessante, aber teure Stadt
  3. Uni Saarbrücken: Die Anteile werden wie folgt angegeben: Informatik 42%, Digitale Medien 30%, Praktika und Projekte 11%, Mathematik 10%, Medienpsychologie 7%. Pluspunkte: gute allgemeine Informatik; Nähe zu Frankreich
  4. Uni Stuttgart: Der Studiengang Medieninformatik wird ab WS14/15 zum ersten Mal angeboten
  5. Uni Tübingen: Schwerpunkte: Human-Computer Interaction, Multimedia und Internet-Programmierung, Computergrafik 
  6. Uni Regensburg: Das Studium wird nicht von einem Informatik-Institut angeboten. Außerdem: Stadt mit Geschichte, heute bayrische Provinz
Die Uni Lübeck, die auch erwähnt wird, ist ein etwas unsicherer Kandidat. Es wird diskutiert, wesentliche Fachgebiete der Uni herunterzufahren. Dass Berlin bei mir an der Spitze steht, hängt nicht damit zusammen, dass Lehre und Forschung in Berlin den Ruf haben deutsche Spitze zu sein. Berlin ist im Moment der Ort in Deutschland, wo die meisten Startups zuhause sind. Viele von ihnen haben mit neuen Medien, Unterhaltung und Spielen zu tun. Einige wurden von Berliner Absolventen gegründet, aber längst nicht alle. Es kann durchaus von Vorteil sein, schon während des Studiums mit potentiellen Arbeitgebern oder Geschäftspartnern in Kontakt zu treten. An der LMU München besteht das Studium der Medieninformatik (Bachelor) aus drei Bereichen: 
  1. Teilgebiete der Informatik und der Mathematik, die identisch zu einem klassischen Informatik-Studium sind, z.B. Analysis, Programmierung, Rechnernetze (Anteil 55 %);
  2. Teilgebiete der Informatik und benachbarter Disziplinen, die einen besonderen Medienbezug haben, z.B. Multimediatechnik, Computergrafik (Anteil 25%);
  3. Ein Anwendungsfach mit Medienbezug aus einer ganz anderen Disziplin, z.B. Kommunikationswissenschaft, BWL, Kunst/Gestaltung, Psychologie (Anteil 20%).
Es wird darauf hingewiesen, dass man neben der mathematisch-naturwissen­schaftlichen Begabung eine Befähigung für interdisziplinäres und kommunikatives Arbeiten mitbringen muss. Man sollte persönliches Interesse an einem der Anwendungsfächer, also sozialer Wirkung von Medien, betriebswirtschaftlichen Zusammenhängen, Gestaltung von Medien oder dem Wechselspiel zwischen Menschen und Maschinen) mitbringen. In der Medieninformatik liegt der Frauenanteil unter den Studierenden bei über 40 %, und gerade die anwendungsbezogene und gestalterische Ausrichtung des Studiums scheint Frauen besonders anzuziehen.

Beruf der Medieninformatikerin und des Medieninformatikers

Da ich zurzeit keine Medieninformatiker in meinem Bekanntenkreis habe, kann ich nur wiedergeben, was ich gelesen habe. Der bereits erwähnte Server Medien-studieren schreibt: 

Absolventen der Medieninformatik arbeiten in Multimedia- und Softwarehäusern, Netzwerk-Unternehmen und Sendeanstalten oder für aktuelle Plattformen als Medien-Systementwickler und -berater, Information Broker, Multimedia-Conceptioner, Online-Redakteure oder Screen-/Video-Designer. Die Tätigkeitsfelder reichen von Elektronischem Publizieren über Digitale Filmproduktion,3-D-Grafik-Programmierung, Telemedizin bis e-commerce.

Die LMU München ist weniger konkret. Sie gibt sogar zu, dass Absolventen oft außerhalb der Medienwelt Jobs bekamen, d.h. suchen mussten. 

Die Absolventen werden durch die praktisch-berufsorientierte und wissenschaftliche Ausbildung auf ein breites Einsatzgebiet in Forschung, Wirtschaft, Industrie, Handel, Verwaltung und dem Dienst­leistungs­sektor vorbereitet. Mögliche Arbeitgeber sind Multimedia-Firmen, Werbeagenturen, Softwarehäuser, Telekommunikationsunternehmen, Rundfunkanstalten und Verlage, aber auch Schulungs-, EDV-, Öffentlichkeits- und Vertriebsabteilungen der meisten Unternehmen. Die Erfahrung bisheriger Absolventinnen und Absolventen hat gezeigt, dass darüber hinaus auch Unternehmen aus ganz anderen Industriebereichen, z.B. die Automobilindustrie im Bereich der Entwicklung von Bedienkonzepten, an dem typischen Profil dieser Ausbildung interessiert sind

Das erste Zitat ist teilweise nur eine Sammlung von modernen Schlagworten. Nach meiner Meinung kommt es im Beruf darauf an, dass man etwas anbieten kann, was andere nicht auch (alle) können. Ich mache viele der erwähnten Tätigkeiten heute nebenher, und zwar ohne Ausbildung auf diesem Gebiet. Gut wäre es, wenn man Leute kennen würde, die dieses Fach studiert haben und auch in ihm arbeiten. Viele Leute arbeiten heute als Informatiker, obwohl sie etwas anderes studiert haben.

Schlussfolgerung 

Es ist keine Frage, dass das Studium sehr interessant sein kann. Auch sind die beruflichen Möglichkeiten nicht schlecht. Um der Gefahr vorzubeugen, dass man im Wettbewerb um verantwortungsvolle Aufgaben stets Journalisten gegenüber den Kürzeren zieht, würde ich zu einem Zweitstudium in Journalismus oder Politik raten. Man muss dann nicht immer den Vorwurf einstecken, ‚nur ein Techniker‘ zu sein, der von Journalismus oder Politik nichts versteht. Zweifellos eröffnet das Studium viele berufliche Möglichkeiten, wo solide Informatik-Kenntnisse erwünscht sind. Es könnte sein, dass diese Tätigkeiten finanziell attraktiver sind als der Journalisten-Beruf.

Erinnern möchte ich daran, dass Medieninformatiker genau wie Informatiker die  Wahl haben, ob sie sich selbständig machen oder sich anstellen lassen. Im Gegensatz zu den USA wird bei uns jedoch das Gründen eigener Firmen nach dem Studium nicht unterstützt. Von Ausgründungen während des Studiums wird sogar abgeraten.

Sonntag, 12. Oktober 2014

Jaron Lanier, der Informatiker, den der Buchhandel ehrte

Heute Vormittag ehrte der deutsche Buchhandel in der Frankfurter Paulskirche einen Informatiker mit dem Friedenspreis. Der Friedenspreis wird seit 1950 vergeben und ist mit 25.000 Euro dotiert. Vermutlich bedarf dieses Ereignis einer Erklärung. Deshalb zitiere ich aus der Begründung des Stiftungsrats vom Juni 2014: 

Den Friedenspreis des Deutschen Buchhandels verleiht der Börsenverein im Jahr 2014 an Jaron Lanier und ehrt mit dem amerikanischen Informatiker, Musiker und Schriftsteller einen Pionier der digitalen Welt, der erkannt hat, welche Risiken diese für die freie Lebensgestaltung eines jeden Menschen birgt. Eindringlich weist Jaron Lanier auf die Gefahren hin, die unserer offenen Gesellschaft drohen, wenn ihr die Macht der Gestaltung entzogen wird und wenn Menschen, trotz eines Gewinns an Vielfalt und Freiheit, auf digitale Kategorien reduziert werden. Sein jüngstes Werk „Wem gehört die Zukunft“ wird somit zu einem Appell, wachsam gegenüber Unfreiheit, Missbrauch und Überwachung zu sein und der digitalen Welt Strukturen vorzugeben, die die Rechte des Individuums beachten und die demokratische Teilhabe aller fördern. Mit der Forderung, dem schöpferischen Beitrag des Einzelnen im Internet einen nachhaltigen und ökonomischen Wert zu sichern, setzt Jaron Lanier sich für das Bewahren der humanen Werte ein, die Grundlage eines friedlichen Zusammenlebens, auch in der digitalen Welt, sind.

Es folgen biographische Angaben zur Person, die ich leicht gekürzt wiedergebe:  

Jaron Lanier, geboren 1960 in New York City, gehört als einer der Pioniere in der Entwicklung des Internets zu den wichtigsten Konstrukteuren der digitalen Welt. Er gilt als der Vater des Begriffs der „virtuellen Realität“ und war selbst als Unternehmer und leitender Forscher an zahlreichen Entwicklungen beteiligt. Heute betreut er als führender Wissenschaftler ein Projekt mehrerer Universitäten zur Erforschung des „Internets 2“ und arbeitet als Forscher für Microsoft Research. 

Jaron Lanier war der Initiator für die Entwicklung von internet-basierten Computernetzwerken und hat virtuelle Kameras, 3D-Grafiken für Kinofilme und den ersten Avatar, einen künstlichen Stellvertreter für eine reale Person in der virtuellen Welt, konstruiert. Der an verschiedenen Universitäten in den USA lehrende Informatiker, der nach dem Schulabbruch Vorlesungen in Mathematik besuchte und hier seine Begeisterung für die Computertechnologie entdeckt hat, hat sich darüber hinaus als Musiker, Komponist und bildender Künstler international einen Namen gemacht.  

Seit dem Jahr 2000 setzt sich Jaron Lanier verstärkt mit der immer größer werdenden Diskrepanz zwischen Mensch und Maschine, Wirklichkeit und virtueller Realität sowie der finanziellen Nutzbarmachung gegenüber dem Missbrauch von Wissen und Daten auseinander. Mit seinen beiden Büchern „Gadget. Warum die Zukunft uns noch braucht“ (2010) und „Wem gehört die Zukunft?“ (2013) sowie zahlreichen Artikeln über negative Entwicklungen in der Digitalen Welt ist er in den letzten Jahren zu einem ihrer wichtigsten Kritiker geworden. … Für seine Erfindungen und Entwicklungen wurde er mit zwei Ehrendoktortiteln ausgezeichnet und hat 2001 den CMU’s Watson Award sowie 2009 den Lifetime Career Award der IEEE, dem weltweit größten Berufsverband für Ingenieure, erhalten. …

Besprechungen der beiden Bücher von Jaron Lanier gibt es unter anderem im Informatik-Spektrum (Heft 33,3 (2010), 332-333) [Kopie im Netz] bzw. ganz neu von Peter Hiemann aus Grasse, ebenfalls durch Anklicken erreichbar.

Als Informatiker regt mich das Ereignis zu einigen Bemerkungen an. Wie in der Besprechung von Laniers erstem Buch erwähnt, sieht Lanier sich sowohl als Informatiker wie als Musiker. Als Musiker leidet er unter den von Informatikern geschaffenen Problemen, die alle kreativ schaffenden Künstler betreffen. Er wirft uns Informatikern vor, dass uns nur die Technik interessierte, ja besoffen machte. Wir hätten für viele, vor allem künstlerische Berufe das Spielfeld verändert, also das Geschäftsmodell zerstört. Wir dächten jedoch nicht daran, den Opfern zu helfen. Im Gegenteil, wir erklärten sie für rückständig, beratungsresistent, ja geistig beschränkt. Wenn es Verlegern schlecht gehe, seien sie es selbst schuld, da sie nicht genug Informatiker eingestellt hätten, oder nicht die richtigen. Lanier stellte fest, dass auch die Informatiker, die nicht für Verlage arbeiten, nicht mit brauchbaren Vorschlägen aufgefallen seien. Den Musikern, die an ihrer Musik kein Geld mehr verdienen, hätte man vorgeschlagen, doch durch den Verkauf von T-Shirts ihren Lebensunterhalt zu sichern.

Wenn er jetzt im zweiten Buch annimmt, dass alles besser gelaufen wäre, hätten wir doch Hypertext so implementiert, wie Ted Nelson es vorhatte, so hilft dies auch nicht. Tim Bernes-Lee hatte eine Implementierung (HTML), auf die nicht nur seine Physiker bei CERN abfuhren, sondern auch Informatiker auf der ganzen Welt. Es ist illusorisch anzunehmen, es gäbe einen Weg zurück, oder die Chance, noch einmal von vorne zu beginnen (engl. reset, restart). Es gibt nur die ‚Flucht nach vorne‘. Wie sie aussehen könnte, darüber sollte man sich Gedanken machen.

 
Da ich nicht an eine perfekte Lösung glaube, gebe ich lieber Teilstücke an. Die Verleger müssten überlegen, wie sie das Erlebnis Lesen, Sehen oder Hören noch attraktiver machen können. Vom Medium Papier, Celloloid, oder TFT-Bildschirme muss man sich lösen. Die über 60 E-Bücher, die ich in den letzten zwei Jahren las, hatten zwar eine Schrift, die ich nach Bedarf vergrößern oder verkleinern konnte, nur waren kaum Bilder drin, noch weniger Videos. Beim SPIEGEL, den ich seit Jahren nur online lese, gehören Videos zu fast jedem Artikel. Weder bei Text noch bei Bildern kann ich Einschübe oder Markierungen anbringen. Der Autor Sascha Lobo macht daher mit Sobooks von sich reden. Das sind E-Books, in die man Kommentare schreiben und an den Autor übermitteln kann. Ob etwas daraus wird, hängt davon ab, wie der Markt reagiert. 

Lanier möchte, dass ein anderer Markt für Information entsteht, als wir ihn heute haben. Heute verdienen vor allem Sammler und Jäger, die Information auflesen und abbauen als wäre es ein frei verfügbares Gut der Natur, so wie Wasser oder Sand. Die Schöpfer von Information sollten stärkere Anerkennung und Vergütung finden. Dem kann man nur zustimmen. Dass sich dies außer gegen die großen Aggregatoren wie Google auch gegen kleine Verlage richtet, die ihre Autoren kaum vergüten, ist vollkommen in Ordnung. Das umso mehr, als einige Verlage heute sogar Geld von ihren Autoren nehmen. Genau wie Lanier dies fordert, muss man damit aufhören, den abstrakten Begriff Information für Dinge zu verwenden, wo man ohne Differenzierung nicht auskommt. Wenn man statt von Information von Äußerungen, Beobachtungen, Dokumenten, Melodien, Messungen oder Wissen reden würde, wäre es klar, dass hier Urheber und Herkunft eine Rolle spielen. Mit ihnen – und nicht mit der Information – sind Rechte verbunden, die es zu achten gilt. Wer dauernd von Bits und Bytes als Informationseinheiten spricht, trägt mit Schuld an der Misere. Hier können alle Informatiker mithelfen, sauberes Denken zu befördern. 

Weniger Chance gebe ich Lanier mit dem Vorschlag, eine Abwehrhaltung gegen Starprodukte und Starsysteme zu entwickeln. Es liegt in der Natur digitaler Güter und Dienste, dass sie global sind. Sie neu zu entwickeln, um sie in der Nähe zu haben, ist der falsche Ansatz. Natürlich können sie personalisiert werden, um auf regionale Traditionen und Gesetze oder persönliche Präferenzen Rücksicht zu nehmen. Nur ist das, im Vergleich zur universellen Lösung, unverhältnismäßig teuer. Es ist die neue Form von Luxus. 

Ich stimme mit Lanier überein, dass es falsch ist, die Situation, so wie sie geworden ist, als alternativlos anzusehen. Man muss nämlich nicht jedes Produkt oder jeden Dienst akzeptieren, selbst dann, wenn dessen Vorteile seine Nachteile überwiegen – ob angeblich, scheinbar oder tatsächlich ist sekundär. Zum Glück besteht eine Wahlfreiheit des Konsums und eine freie Vertragsgestaltung für Dienstleistungen. Die ‚offene Gesellschaft‘ ist nicht deshalb in Gefahr, weil Güter, die früher teuer und rar waren, plötzlich Millionen von Menschen zur Verfügung stehen. Noch wird uns jede ‚Macht der Gestaltung‘ entzogen. Die Kostenrelationen zwischen den Gütern und Diensten, den analog-physikalischen und den digitalen, werden sich jedoch signifikant verändern.  

Wenn davor gewarnt wird, alles auf ‚digitale Kategorien‘ zu reduzieren, habe ich den Eindruck, dass hier ein Popanz aufgebaut wird. Ebenso könnte man dazu raten, nicht alles nach mathematischen oder technischen Kategorien zu bewerten. Es wird suggeriert, dass wir alle zu Nummern degradiert, ja auf Nullen und Einsen reduziert werden. Damit wird Wissenschaft und Technik als Feind der Menschheit, seiner Natur und seiner Kultur, bekämpft. Diesen Fehler sollten wir besser nicht machen.  

Leider passt der obige Begründungstext zu dem unglücklichen Bild, das Verlagswesen und Buchhandel seit Jahren abgeben. Durch Jammern wird sich ihre Situation allerdings nicht verbessern, noch durch Drohungen. Wenn Mathias Döpfner vom Axel-Springer-Verlag, der selbsternannte Sprecher aller deutschen Verlage, glaubt, dass ihm die Europäische Kommission helfen kann, mit einem ‚Sirenen-Server‘ wie Google fertig zu werden, irrt er. Der Ausdruck ‚Sirenen-Server‘ stammt aus Laniers zweitem Buch und soll besagen, dass die Angebote von Google und Co. eine große Anziehungskraft besitzen. Der listenreiche Odysseus fand  ̶  nur durch Überlegen  ̶  eine Lösung, um mit Sirenen fertig zu werden und überlebte. Seine Lösung, der Mannschaft die Ohren mit Wachs zu verschließen, würde jedoch nicht in unsere Zeit passen.

 
Nachtrag am 13.10.2013

 
Den deutschen Text von Laniers Rede finden Sie hier. Arnoud de Kemp aus Berlin verwies auf folgende Kommentare:  
  • Perlentaucher: Friedenspreisträger Jaron Lanier sorgt für Standing Ovation in der Paulskirche  
  • Die Welt: Jaron Lanier im Interview mit Welt Online
  • Süddeutsche Zeitung: Warum diesmal ein digitaler Humanist zum Friedenspreisträger wurde
  • Frankfurter Rundschau: Lob von EU-Parlamentspräsident Schulz am Mundorgelspieler Lanier
  • Buchmarkt: Ausführlicher Beitrag zur Friedenspreisverleihung plus kleine Bildergalerie
Otto Buchegger aus Tübingen hatte einen etwas kritischeren Kommentar eines Bloggers gefunden. Er fügte hinzu: 
 
Übrigens, alle diese Preise dienen nur dem Zweck das eigene Buchgeschäft zu sichern. Sie sind keine wirkliche Auszeichnung, sondern nur geschickte Marketingmaßnahmen!

 
NB (Bertal Dresen): Fachlich gesehen, stimme ich diesem Blogger voll zu. Ich hatte in den 1970er Jahren eine Demo  am MIT besucht, wo man mit einem kopfmontierten Bildschirm 3D-Bilder betrachten konnte. Der Ausdruck ‚Virtuelle Realität‘, ein Oxymoron, fiel damals auch. Eine sehr ausführliche Biografie Jaron Laniers brachte der Guardian im Jahre 2001.