Manfred Broy (Jahrgang
1949) ist seit 1989 Informatik-Professor an der TU München. Davor war er an der
Universität Passau tätig. Sein Fachgebiet ist Software und Systems Engineering.
Broy hat über 200 Veröffentlichungen und betreute eine Vielzahl von Promotionen. Er ist Träger der Konrad-Zuse-Medaille (2007) und Fellow (2004) der
Gesellschaft für Informatik (GI). Er war Leibnizpreisträger der DFG (1994). Er
ist Mitglied der Europäischen Akademie der Wissenschaft (1992) und der Deutschen Akademie der Naturforscher „Leopoldina“ (2003). Er ist Mitglied im
Konvent der Technikwissenschaften acatech (2006) und der Bayerischen
Akademie der Wissenschaften (2014). Außerdem ist er Ehrendoktor der Universität Passau
(2003). Broy hatte in München Mathematik und
Informatik studiert und bei F.L. Bauer promoviert.
Bertal
Dresen (BD): Bei
der GI-Jahrestagung im September in Stuttgart hat mich Ihr Vortrag sehr
angesprochen. Er hatte den Titel: ‚Cyber-Physical Systems – digital vernetzt in
die physikalische Wirklichkeit‘. Der
Ausdruck Cyber-Physische Systeme (CPS) wurde in Deutschland durch eine Studie
der acatech, der Deutschen Akademie der Technikwissenschaften, populär gemacht.
Es sind, wie Sie sagten, ‚software-intensive
Systeme, die unmittelbar mit der physikalischen Wirklichkeit verbunden sind,
aber im Gegensatz zu klassischen eingebetteten Systemen tief und umfassend über
globale Netzstrukturen, wie das Internet und damit verfügbare Daten und Dienste,
vernetzt sind.` Dieses Thema ist im Moment nicht nur in Deutschland sehr
heiß. Könnten Sie anhand eines Beispiels die Eigenschaften eines CPS
verdeutlichen.
Manfred Broy (MB): Ein typisches cyber-physisches System wäre ein integriertes Verkehrsinformationssystem, bei dem sowohl aus den Fahrzeugen Daten an einen zentralen Server, etwa in der Cloud, übertragen werden, dort mit Informationen zum Verkehr, auch zur Parksituation und zu vielen anderen wichtigen Informationen mehr, wie Wetter, Großveranstaltungen und ähnliches, abgeglichen werden und dann wieder als gezielte Dienste in die Fahrzeuge, aber gegebenenfalls auch auf andere Endgeräte zurückgespielt werden. Zusätzlich kann ich mir vorstellen, dass hier multimodale Verkehrsführung unterstützt wird, so dass Verkehrsteilnehmer, die zwischen unterschiedlichen Verkehrssystemen wechseln, wie beispielsweise Straßenfahrzeuge, Schienenfahrzeuge und Flugzeuge, natürlich gegebenenfalls auch Schiffe, abhängig von der aktuellen Verkehrslage und eventuell auch der Preissituation geführt werden. Gleichzeitig könnte man sich vorstellen, dass die gesamte Bezahlabwicklung dabei automatisch erfolgt. Wenn man solche Szenarien durchdenkt, sieht man, dass vielfältige Möglichkeiten der Verknüpfung gegeben sind. Schon heute ist die Begrenzung unserer Möglichkeiten weniger die Technologie als die Frage, ob man entsprechende Systeme organisatorisch in den Griff bekommt, ob sie in Hinblick auf die zu bewältigenden Komplexitäten tatsächlich praktikabel sind und insbesondere wie stark sie von den potentiellen Nutzern akzeptiert werden
Manfred Broy (MB): Ein typisches cyber-physisches System wäre ein integriertes Verkehrsinformationssystem, bei dem sowohl aus den Fahrzeugen Daten an einen zentralen Server, etwa in der Cloud, übertragen werden, dort mit Informationen zum Verkehr, auch zur Parksituation und zu vielen anderen wichtigen Informationen mehr, wie Wetter, Großveranstaltungen und ähnliches, abgeglichen werden und dann wieder als gezielte Dienste in die Fahrzeuge, aber gegebenenfalls auch auf andere Endgeräte zurückgespielt werden. Zusätzlich kann ich mir vorstellen, dass hier multimodale Verkehrsführung unterstützt wird, so dass Verkehrsteilnehmer, die zwischen unterschiedlichen Verkehrssystemen wechseln, wie beispielsweise Straßenfahrzeuge, Schienenfahrzeuge und Flugzeuge, natürlich gegebenenfalls auch Schiffe, abhängig von der aktuellen Verkehrslage und eventuell auch der Preissituation geführt werden. Gleichzeitig könnte man sich vorstellen, dass die gesamte Bezahlabwicklung dabei automatisch erfolgt. Wenn man solche Szenarien durchdenkt, sieht man, dass vielfältige Möglichkeiten der Verknüpfung gegeben sind. Schon heute ist die Begrenzung unserer Möglichkeiten weniger die Technologie als die Frage, ob man entsprechende Systeme organisatorisch in den Griff bekommt, ob sie in Hinblick auf die zu bewältigenden Komplexitäten tatsächlich praktikabel sind und insbesondere wie stark sie von den potentiellen Nutzern akzeptiert werden
Das
obige Beispiel Verkehrssystem zeigt schon deutlich, was damit gemeint ist. Erweitern
wir das Beispiel noch ein wenig, indem wir auch noch eine Assistenz für den
Fahrer hinzunehmen. Das bedeutet, dass nun innerhalb des Systems auch extrem
zeitkritische Vorgänge, wie zum Beispiel Bremsvorgänge zusätzlich eine Rolle
spielen können. Versuchen wir von den Erfahrungen im zivilen und militärischen
Fluganwendungen zu lernen, bei denen heutzutage ein Großteil der Flugvorgänge
vollautomatisch abgewickelt werden. Beispielsweise fliegt heute ein Zivilpilot
auf einem zweistündigen Flug oft nur noch einige Minuten selbst und den Rest
erledigen die Systeme. Hier ist über die Jahre ein umfangreiches Wissen
entstanden über die Art und Weise, wie man Menschen in ihren Aufgaben
assistiert, ihnen kognitive Assistenten zur Seite stellt, auch kooperative
Vorgänge zwischen System und Nutzer gestaltet bis hin zu dem Punkt, dass die
Systeme in kritischen Situationen eingreifen und, gerade wenn der Mensch
überfordert ist, Entscheidungen fällen. Dies zeigt in welchem Umfang CPSe sich
von anderen Systemen markant unterscheiden. Im Mittelpunkt steht dabei sicher,
dass die Systeme Informationen und Daten aufbauen, ich vermeide bewusst dabei
von Wissen zu sprechen, über die Situation und den Zustand der Systemumgebung
und zwar den aktuellen Zustand, so dass die angesprochenen Reaktionen ermöglicht
werden.
BD: Interaktive und
zeitkritische Anwendungen gab es doch schon lange. Wollen Sie sagen, dass diese
in der Praxis nur eine untergeordnete Rolle spielten oder dass sie von der
Theorie stiefmütterlich behandelt wurden? Sie schreiben: ‚Von besonderer Bedeutung sind letztlich Modelle von Zeit und Raum. Eine
Informatik, die diese Konzepte harmonisch integriert und in einen
Engineering-Ansatz umsetzt, ist das geeignete Vehikel, um die Cyber-Physischen
Systeme der Zukunft zu erschließen.‘ Dass für Informatiker und
Informatik-Systeme jetzt plötzlich eine ‚Real World Awareness‘ gefordert wird,
mag manchen Praktiker, der nie ohne Realitätsbezug auskam, etwas überraschen.
Was ist jetzt wirklich neu oder grundsätzlich anders?
MB: Natürlich gibt es
seit vielen Jahrzehnten Echtzeitanwendungen und viele andere Anwendungen sind auch zeitkritisch.
Allerdings muss man feststellen, dass die Programmierung entsprechender
Anwendungen immer noch sehr stark einem klassischen alten Paradigma unterworfen
ist. Die Systeme besitzen ihren eigenen Zeittakt und die Programme müssen auf
diesen Zeittakt so zugeschnitten werden, dass die Zeitschranken erreicht
werden. Methodisch ist das Thema der Zeit damit viel zu wenig im Hinblick auf
die Zeit im Anwendungsgebiet zugeschnitten. Gleichzeitig müssen wir intensiv
über die unterschiedlichen Zeitmodelle diskutieren, beispielsweise über
Zeitmodelle, wie sie typischerweise in der Regelungstechnik eingesetzt werden,
nämlich klassische kontinuierliche Zeit dargestellt durch die reellen Zahlen
und diskrete Zeitmodelle, wie sie die Informatik einsetzt. Eine wesentliche
Beobachtung dabei ist, dass es in der Entwicklung der Programmiersprachen am
Anfang aus nachvollziehbaren Gründen ein Hauptanliegen war, Zeitaspekte völlig
weg zu abstrahieren, da diese immer als Zusammenhang zu den eher zufällig
maschinennahen Ausführungszeiten gesehen wurden, während heute die Systeme in
die Zeit unserer Wirklichkeit eingebettet laufen. Hinzukommt, dass frühere
eingebettete Systeme nicht nach außen vernetzt waren, somit ihre eigenen
Methoden einsetzen konnten, wie sie mit zeitkritischen Aufgaben umgehen. Nun
müssen unterschiedliche Systeme, die zeitkritisch sind, sich auch untereinander
synchronisieren.
BD: Das Internet der
Dinge (engl. Internet of Things, Abk. IoT) wird immer wieder als der große
Durchbruch dargestellt. Bei Jeremy Rifkin, dessen zwei
letzte Bücher ich in diesem Blog besprach, wunderte es mich, dass er den
Ausdruck IoT auch auf Strom- und Wassernetze anwendete. Ist das nur eine
Wortspielerei? Auch Sie sprechen von physikalischen Diensten, die über das
Internet verabreicht werden. Wie beurteilen Sie das wahre Potential? Wo sehen
Sie die technischen Probleme?
MB: Es ist natürlich
wahr, dass die Terminologie hier noch deutlich diffus ist. Es geistern eine
ganze Reihe von Begriffen durch die Gegend, wie eben „Internet of Things“,
„Cyber-physical Systems“, „Internet der Daten, Dienste und Dinge“ und vieles
mehr. Wir bemühen uns seit längerem darum, hier ein wenig mehr Klarheit in die
Begrifflichkeit zu bekommen. Ursprünglich war „Internet of Things“ im
Wesentlichen als RFID verstanden worden, das heißt, dass man über entsprechende
Sensoren RFID-Tags an Gegenständen lesen und damit beispielsweise in der
Logistik oder in der Produktion sehr viel genauer verfolgen kann, wie
Gegenstände verarbeitet oder versandt werden. Das Ganze bekommt eine ganz
andere Dimension, wenn es sich nicht nur um Gegenstände handelt, sondern um
Geräte und Systeme, die selbst über Rechenfähigkeit verfügen und damit in eine
Interaktion treten mit den sie umgebenden Systemen.
Bei
Stromsystemen ist das ganz einfach zu verdeutlichen. Klassisch hatten wir
Stromsysteme, in denen nur die Stromverteilungssysteme selbst über Informationsverarbeitungsfähigkeiten
verfügten. Schon der Stromzähler war eine absolut passive Einheit und alles,
was sich dahinter in den Gebäuden abgespielt hat, gleichermaßen. Stellt man
sich vor, dass in diesen Stromsystemen heute alle wesentlichen Einheiten als
Systeme konzipiert werden, die Informationen austauschen und auf diese Art und
Weise eine ganze Reihe von Optimierungsmöglichkeiten umsetzen können, so erkennt
man den Übergang von einem klassischen Stromsystem zu einem Stromsystem, das
tatsächlich als Cyber-physical System betrachtet werden kann.
BD: Die Verfechter von
Big Data reden jetzt sehr viel von Smart Data. Ist das mehr als der Versuch die
Aufmerksamkeit wieder etwas mehr in Richtung Software zu lenken? Besteht nicht
die Gefahr, dass alles, was Software enthält, automatisch als intelligent oder smart
dargestellt wird? Was können oder müssen wir tun, um klar zu machen, dass man
auch bei Software differenzieren muss?
MB: Der Begriff der Big
Data oder Smart Data ist im Moment überstrapaziert. Vielleicht ist es wichtig,
sich noch einmal klar zu machen, warum dieser Begriff in den letzten Jahren so
viel Bedeutung bekommen hat. Das hat schlicht und ergreifend mit zwei
Phänomenen zu tun. Zum einen fallen über die Jahre immer mehr digitale Daten
an, weil Menschen fast rund um die Uhr mit digitalen Geräten interagieren und
dabei jede Menge digitaler Daten produzieren. Dies sind beispielsweise Daten,
die bei Google anfallen, wenn Menschen Abfragen eingeben, aber ebenso Daten,
die in Unternehmen anfallen, wenn Menschen in ihren Alltagsaufgaben mit den
Systemen mit Daten hantieren. Das geht bis hin zu Daten, die beim Austausch von
E-Mails entstehen. Ein zweiter riesiger Datenbestand entsteht durch die immer
weiter zunehmende Sensorik. Ein Automobil ist heute ein riesiger
Datenstaubsauger. Wenn es gelingt, diese Daten in die Netze zu bringen und
zugänglich zu machen, so können viele interessante Effekte dadurch erzielt
werden. Mir ist natürlich bewusst, welche große Rolle hier offene Fragen des
Datenschutzes und der Datensicherheit spielen.
Die
großen Mengen von Daten schreien jedoch förmlich danach, damit interessante
Möglichkeiten zu nutzen. So landen wir tatsächlich beim Thema Big Data. Der
Begriff der Smart Data ist tatsächlich wohl mehr ein Marketingbegriff. Die
Daten selber sind natürlich in keiner Weise „smart“, bestenfalls die Art und
Weise wie man über Algorithmen aus den Daten in intelligenter Weise zusätzliche
Informationen gewinnt.
BD: Haben Sie den
Eindruck, dass semantische Technologien bereits einen signifikanten Anteil bei
der System- oder Anwendungsentwicklung erreicht haben? Welche Auswirkungen haben
sie auf den Entwicklungsprozess?
MB: Semantische
Technologien stehen natürlich gerade in einem direkten Zusammenhang mit Big
Data. Wenn man über große, unstrukturierte Datenmengen verfügt, ist es
natürlich höchstinteressant, etwas zu unternehmen, um diese Daten zu interpretieren
und ihnen eine Bedeutung zuzuordnen. Damit sind wir bei den semantischen
Technologien.
Am
einfachsten kann man semantischen Technologien mit Beispielen aus dem Internet
erklären. Bilder im Internet sind aus Sicht des Informatikers erst einmal nur
Pixel-Wolken, die gespeichert, übertragen, dargestellt und verarbeitet werden.
Aus Sicht der Anwendungen ist es natürlich von höchstem Interesse zu erkennen,
was auf den Bildern abgebildet ist und mehr noch, zwischen Bildern und anderen
Daten Beziehungen herzustellen, auch zu erkennen, welche Bedeutung Daten oder
Bilder für die Wirklichkeit haben und wie diese mit der physikalischen
Wirklichkeit in Verbindung zu sehen sind, insbesondere, wenn es sich dabei um
Daten handelt, die innerhalb von CPSen entstehen. Wenn es uns also gelingt, aus
den Daten semantische Inhalte zu gewinnen, so haben wir einen wichtigen Schritt
getan.
Vielleicht
lässt sich das wieder gut an einem Beispiel erklären. Ein Auto nimmt heute eine
Vielzahl von Informationen über die Sensoren auf. Wenn es gelingt, aus diesen
Informationen ein zuverlässiges Bild von dem Umfeld des Autos zu gewinnen, so
kann man natürlich daraus in vielfacher Weise zusätzliche Funktionen für den
Fahrer anbieten. Der Übergang von der Wolke von Sensorik-Information zu einem
strukturierten Informationsmodell ist genau ein Beispiel für so eine
semantische Technologie. Der Traum vieler Informatiker ist, dies nicht so zu
bewerkstelligen, dass sich ein Ingenieur entsprechende semantische
Konstruktionen ausdenkt, sondern dass ein Teil dieser Konstruktionen durch
Algorithmen generiert werden. Dies aber ist sicher noch eine offene Frage für die
Zukunft.
BD: Können Sie sich
vorstellen, in Kürze eine Google-Brille (oder ein ähnliches Produkt) zu
verwenden? Wem würden Sie empfehlen, es zu tun? Wo sehen Sie ihre Anwendung?
MB: Warum nicht? Ich
könnte mir durchaus vorstellen, in bestimmten Situationen Geräte wie eine
Google-Brille zu verwenden. Es kommt hier natürlich immer darauf an, was man
damit erreichen will und welche Funktionalität so ein Gerät erbringt. Die
Google-Brille ist ja nicht nur dazu da, Informationen einzublenden, sondern umfasst
auch eine Videokamera, die Informationen aufnimmt, analysiert und speichert.
Die Möglichkeiten des Einsatzes sind vielfältig. Ich möchte nicht verhehlen,
dass mir manches dabei ein wenig unbehaglich vorkommt, etwa die Vorstellung,
dass wir in wenigen Jahren allesamt mit solchen Geräten auf der Nase
herumlaufen und uns gegenseitig per Video aufnehmen und analysieren. Aber in
bestimmten Situationen in Beruf und Freizeit könnte die Google-Brille durchaus
mit großem Gewinn eingesetzt werden, beispielsweise im Sport oder aber in der
Produktion oder in der Wartung von Geräten.
BD: Können Sie mit gutem
Gewissen den Einsatz autonomer Systeme empfehlen? Etwa selbstlenkende Autos?
Sind da die Amerikaner uns technisch voraus oder haben sie bloß weniger Angst?
Wann ist mit ihrer massenhaften Einführung im Markt zu rechnen?
MB: Das ist wirklich eine
interessante Frage. Ich denke, dass die Frage der autonomen Systeme manchmal zu
sehr nach schwarz und weiß gesehen wird. Ist ein System autonom oder ist es
nicht autonom. Ich glaube, dass es hier einen starken Graubereich gibt.
Systeme, die assistieren, die also nicht vollautonom sind, doch aber so stark
in der Interaktion mit ihren Nutzern Einfluss auf das Geschehen nehmen, dass
sie das Geschehen in weiten Teilen mitbestimmen. Das ist eine große Herausforderung
in zweierlei Hinsicht – zum einen solche Systeme tatsächlich funktionsfähig zu
schaffen und auf der anderen Seite dabei aber auch grundlegende Bedürfnisse der
Menschen und auch einer freiheitlichen Bürgergesellschaft nicht aus den Augen
zu verlieren.
In
manchen Anwendungsfeldern aber stellt sich die Frage nicht wirklich. Wenn es
uns tatsächlich gelingt, und das ist heute schon sehr gut abschätzbar, die hohe
Zahl der Verkehrsunfälle zu reduzieren, indem man in gewissen Situationen
zulässt, dass Systeme autonom eingreifen, so sind wir uns sicher alle einig,
dass das ein guter Schritt wäre. Ich komme gerade von einer Konferenz zur
funktionalen Sicherheit im Fahrzeug und bin immer wieder fasziniert, mit
welcher Sorgfalt heute in der Automobilindustrie alles getan wird, um Fahrzeuge
zu produzieren, in denen keine technischen Defekte zur Gefährdung der
Passagiere führen können. In der Unfallstatistik ist tatsächlich das technische
Versagen von Fahrzeugen allerdings ein absolut geringfügiger Faktor. Es scheint
mir völlig auf der Hand zu liegen, dass wir viel weitergehende Fortschritte in der
Unfallreduzierung erzielen können, wenn wir über teilautonome Systeme
Unzulänglichkeiten mancher Verkehrsteilnehmer ausgleichen.
BD: Mich wundert es
etwas, dass Sie das Thema der nicht vollkommen geplanten, aber enorm wachsenden
Systeme außer Acht lassen. In einem gemeinsamen Papier im Jahre 2008 nannten
wir sie Übergroße Systeme (engl. ultra-large systems). Halten Sie das Phänomen inzwischen
für unwichtig, oder meinen Sie das die Informatik als Wissenschaft hier ohnehin
nichts tun kann?
MB: In der Tat habe ich
das Thema in meinem Vortrag nicht angesprochen. Ich habe ohnehin viel zu viele
Themen angerissen, ohne dass ich sie wirklich besprechen konnte. Ich glaube,
dass übergroße Systeme mit schwer zu beherrschendem Wachstum wirklich ein
großes Problem darstellen. Das beginnt mit den ganz elementaren
Fragestellungen, wie der Wartung großer Systeme. Heute sind ja viele
Unternehmen in der Wartungsfalle.
Aber
auch der Umstand, dass wir heute Systeme bauen, die immer weiter eingesetzt
werden und gleichzeitig in ihrer Funktionalität und Vernetzung eine Erweiterung
erfahren, liegt in einem Bereich, den wir nicht genügend verstehen. Es ist ja
heute schon interessant zu sehen, dass wir Systeme, die unter ganz anderen
Vorzeichen entstanden sind, über einen sehr langen Zeitraum im Einsatz haben.
So ist es wirklich erstaunlich, dass die grundlegende Internet-Technologie, die
aus den 70er Jahren stammt und einen eher militärischen Hintergrund hat, heute
mit den Internetstrukturen die gesamte Informationsvernetzung in unserer Welt
dominiert. Ein zweites Beispiel sind die Betriebssysteme – ich will hier nur
Windows nennen – die unter ganz anderen Vorzeichen entstanden sind und nun in
einer immer stärker vernetzten Welt zurechtkommen müssen. Kein Wunder, dass es
hier viele Probleme gerade auch mit der Sicherheit gibt.
BD: Bei Ihnen spielt der
Begriff der Modellierung eine herausragende Rolle. Sie meinen vermutlich nicht
Datenmodelle oder Leistungsmodelle. Könnten Sie kurz erläutern, um welche Art
von Modellen es bei Ihnen geht. Ich
würde gerne besser verstehen, wie Sie Zeit und Zeitfluss in mathematischen
Modellen darstellen. Mein Eindruck ist nämlich dass Sie fast immer nur mit
Mengen arbeiten, also ungeordneten Elementen. Täusche ich mich?
MB: Ich glaube, dass die
Informatik grundsätzlich die Wissenschaft von der Modellierung ist. Jedes
Programm ist ein Modell – zum einen ein Modell von Teilen des Anwendungsgebiets,
in dem es angewandt wird, und es beruht auf bestimmten Modellannahmen. Dabei
schließe ich Datenmodelle oder Leistungsmodelle durchaus ein. Ich denke, dass
wir eine Fülle von Modellen brauchen, die ineinander greifen.
Zu
Ihrer Frage, was den Zeitfluss betrifft – hier hat die Mathematik über viele
Jahrzehnte und Jahrhunderte uns bereits aufgezeigt, wie weitgehend wir in der
Lage sind, bestimmte Vorgänge mathematisch zu modellieren. Es führt hier ein
wenig zu weit, in die technischen Details einzusteigen. Aber die Modelle, mit
denen wir seit vielen Jahren nun arbeiten, sind Modelle von Verhalten von
Systemen, oft von diskreten Systemen in einem diskreten Zeitfluss. Für solche
Modelle lassen sich bestimmte Gesetzmäßigkeiten aufstellen, die diesen
Zeitfluss abbilden und die gleichzeitig wieder benutzt werden können, um über
Eigenschaften dieser Modelle zu schlussfolgern. Dass die Modelle selbst wieder
mit mathematischen Mitteln dargestellt werden, also im Wesentlichen mit Mengen
und Relationsstrukturen über diesen Mengen, ist nicht erstaunlich. Etwas
anderes hat uns die Mathematik ja auch nicht in die Hand gegeben.
BD: Durch Ihre Antwort,
dass Sie zu Modellen auch Programme rechnen, erübrigt sich eine meiner
ursprünglichen Fragen, nämlich: Welche Sprachen und Werkzeuge kommen dabei zur
Anwendung? Ich dachte eigentlich an Modelle, die nicht in einer
Programmiersprache ausgedrückt werden. Dann muss man sich nämlich fragen,
welchen Sinn sie haben oder welche Fragen sie beantworten sollen. Belassen
wir es bei Ihrer Antwort.
Sie
sagen, dass Systeme durch Software ‚individualisiert‘ werden. Muss man nicht
vorsichtiger formulieren? Sie meinen doch, dass anwendungsneutrale Hardware
erst durch Software zu einem nutzbaren System wird. Sie wollen doch nicht sagen,
dass jeder Nutzer Software erhält, die speziell für ihn geschrieben wurde? Oder
wollen Sie alle Menschen zu Programmierern machen?
MB: Ich denke, da haben
Sie eine Bemerkung von mir missverstanden. Ich wollte in meinem Vortrag nur
darauf hinweisen, dass die Durchschlagskraft der Informatik zum einen daraus
kommt, dass heute die Leistungsfähigkeit der Prozessoren immer noch im Sinne
des Moore´schen Gesetzes im Wesentlichen exponentiell zunimmt. Dies gilt, zwar
mit unterschiedlichen Zahlen, für Speicherung, Berechnung und Kommunikation im
Wesentlichen gleichermaßen. Diese Zunahme der Leistungsfähigkeit geht einher
mit einem starken Preisverfall, der auch aus der industriellen Produktion der
Chips herrührt. Der Effekt würde aber nicht zum Tragen kommen, wenn nicht gleichzeitig
durch die Möglichkeiten der Software die Rechner auf ganz unterschiedliche
Aufgaben zugeschnitten werden könnten.
Dabei
hatte ich nicht im Sinn, dass für jeden einzelnen, individuellen Benutzer individuell
Software gebaut wird, sondern dass ein Prozessor eingesetzt werden kann, um
Berechnungen durchzuführen, um Kommunikationsprotokolle abzuwickeln, um ein
Gerät zu steuern. Zwar haben wir heute natürlich unterschiedliche
Prozessorfamilien für unterschiedliche Zwecke, aber es ist sicher unbestritten,
dass die eigentliche Zuschneidung eines Rechnerkerns für eine Aufgabe
letztendlich durch die Software erfolgt. Dahinter steckt auch die Erkenntnis,
dass Software der entscheidende Stoff ist, aus dem die Zukunft gebaut werden
wird. Es gibt ja den berühmten Satz „Software eats the world“.
BD: Der Begriff
‚Unschärfe‘ steht bei Ihnen für sehr unterschiedliche Dinge: Mehrdeutigkeit,
Ungenauigkeit und fehlende Information. Muss man nicht jedes Problem getrennt
angehen, um weiterzukommen? Ist der Begriff ‚günstiges Angebot‘ nicht einfach
eine (gewichtete) Oder-Verknüpfung von niedrigster Preis, beste Lieferbedingungen
und günstigste Zahlungsweise?
MB: Ich stimme Ihnen
völlig zu. Ich habe das versucht, in meinem Vortrag auch in aller Kürze zu
sagen. Es gibt ganz unterschiedliche Ausprägungen von Unschärfe und hier findet
sich ein interessanter, ja fast dialektischer Gegensatz. Die Informatik ist ja
eine Wissenschaft, die im Kern auf klassische zweideutige Logik aufgebaut ist.
Etwas überspitzt ausgedrückt könnte man sagen, dass die Informatik die Ingenieurwissenschaft
der Logik ist. Es ist erstaunlich zu sehen, welche fundamentalen Erkenntnisse
die Logik gerade in der ersten Hälfte des letzten Jahrhunderts erzielt hat,
noch bevor Informatik als Ingenieurwissenschaft wirklich bedeutsam geworden ist
und wie stark sich die logischen Überlegungen dann in dem, was die Informatik
macht, widerspiegeln – in der Tat faszinierend.
Logik
ist ein Versuch, eine in vielen Bereichen unscharfe Welt, zumindest aus Sicht
des Menschen unscharfe Welt, in scharfe Strukturen zu bekommen. Das ist
natürlich immer nur bis zu einem gewissen Grad möglich. Solange die Informatik
eine Informatik im Labor und Rechenzentrum war, ist dieser Gegensatz auch nicht
ganz so stark zu Tage getreten. Aber heute, wo die Informatik an allen
möglichen Ecken und Enden integriert in unserer Wirklichkeit eine immer
stärkere Rolle spielt, hat dieser Gegensatz an Bedeutung gewonnen und wir
müssen sehr viel stärker verstehen, wie wir damit umgehen.
BD: In Anlehnung an das
Schlagwort Industrie 4.0 definieren Sie die Informatik 4.0. Als bestimmende
Technologien und Aspekte erwähnen Sie: Globale Vernetzung, Sensoren und
Aktuatoren, menschliche Ausrichtung (engl. Human Centric Systems). Wie kann und
soll die Informatik 4.0 unter die Leute gebracht werden? Was müssen wir neu
lernen? Was müssen bzw. können die Hochschulen tun?
MB: Ich habe das mit der Informatik 4.0 nicht
ganz so ernst gemeint. Ich wollte keinen neuen Begriff prägen. Auch der Begriff
Industrie 4.0 ist ein wenig ein Schaufensterbegriff. Daran liegt mir nicht. Ich
habe den Begriff Informatik 4.0 im Vortrag nur verwendet, um deutlich zu
machen, wie stark sich die Informatik in den vielen Jahren weiterentwickelt hat
und dass ich eine gewisse Diskrepanz sehe zwischen der wachsenden Bedeutung der
Informatik und der Weiterentwicklung der theoretischen Kerne, wie Berechenbarkeit,
Komplexitätstheorie und Gebieten wie formale Sprachen. Ich will hier nicht
missverstanden werden. Im Gegensatz zu manchen meiner Kollegen, die darüber
nachgedacht haben, ob der Begriff der Berechenbarkeit für verteilt ablaufende
Systeme überhaupt noch Gültigkeit hat, glaube ich, dass diese Konzepte im Kern
nach wie vor gültig sind, aber sie müssen erweitert werden und in Verbindung
gesetzt werden mit der Art von Systemen, mit denen wir heute zu tun haben.
Weitergehende
Fragen sind natürlich, inwieweit diese im Grunde artifiziellen, rein
mathematischen Begriffe einen Zusammenhang zur wirklichen Welt haben. Das
ist aber eine Frage für die Wissenschaftstheorie. Der
andere Punkt, den Sie ansprechen, ist das Thema der globalen Vernetzung. Informatik
überall ist ja längst Wirklichkeit. Über Smart Phones und andere Geräte, über
das Internet und die Vielzahl der Informatiksysteme, die heute im Einsatz sind,
sind die Menschen längst eingebunden in umfassende Systeme der Informatik, Cyber-physical
Systems eben. Doch es wird viel zu wenig untersucht, wie stark das die Sicht
der Menschen auf die Welt verändert, wie stark das die Verhaltensweisen der
Menschen beeinflusst und wie wir die Systeme gestalten müssen, dass sie den Menschen
in optimaler Weise nützen können. Gerade in Deutschland haben wir hier große
Schwächen.
Ich
hatte vor kurzem mit Albrecht Schmid, einem Kollegen aus Stuttgart, in einem
Aufsatz in einer amerikanischen Zeitschrift (IEEE Computer, 2/2014) noch einmal versucht, dies darzustellen.
Wir müssen die Systeme menschenzentriert gestalten.
Das ist
übrigens ein anderer philosophischer Ansatz als die klassische künstliche
Intelligenz – mit dem Ziel, nicht ein menschenähnliches Wesen im Rechner erschaffen,
das ein Eigenleben führt, sondern Informatiksysteme zu bauen, die Menschen in
einer umfassenden Weise nutzen und ihnen ermöglichen, in Arbeit und Freizeit
mit ihren Problemen und Fragestellungen in einer viel geschickteren Art und
Weise umzugehen. Ich glaube, wir müssen hierzu eigene Studiengänge
einrichten und eine ganze Disziplin aufbauen.
BD: Einem Leser dieses
Blogs gefiel ein Satz besonders gut, der in Ihrer Kurzfassung steht, nämlich: "Bisher zielten die Modelle der
Informatik eher auf den Lösungsraum (die abstrakte Rechenmaschine) und weniger
auf den Problemraum (die Welt der organisatorischen oder physikalischen
Prozesse)." Der Leser fragte: Wo
wird Prozessverständnis, Prozessdarstellung, Prozessumsetzung, Prozessanalyse,
Prozessmethodik, Prozessarchitektur, Prozessmanagement usw. usw. in der
Informatik unterrichtet? Wo bleibt der Informatiklehrstuhl, der sich dieses
Themas ganzheitlich annimmt, mit den vielen neuen Herausforderungen, die sich
insbesondere durch das IoT ergeben? Wer vermittelt dieses Wissen?
MB: Das ist schon wieder
eine schwierige Frage, weil alle diese Begriffe, wie Prozess,
Prozessverständnis und Prozessanalyse so vielschichtig sind. Wo findet sich der
Begriff des Prozesses nicht überall – Rechenprozess, Geschäftsprozess, Produktionsprozess.
Viele dieser Prozessbegriffe haben Ähnlichkeiten, aber sind doch wieder
unterschiedlich.
Wir
lehren natürlich an der TU München die wichtigen Prozessbegriffe, wie man Prozesse
darstellt, wie man sie analysiert. Aber was ich im Grunde genommen noch wesentlicher
finde, ist die Fähigkeit, die Kontexte, in denen Systeme laufen und die
Prozesse, die in diesen Kontexten ablaufen, in einer Art und Weise zu erfassen
und zu beschreiben, dass der Entwurf von Systemen dadurch eine ganz andere
Qualität erhält. Das ist ein anderer Kernpunkt meines Vortrages. Heutige
Systeme sind eng mit ihrem Kontext verbunden, arbeiten intensiv mit ihrer
Umgebung zusammen. Wir müssen die Umgebung sehr genau verstehen, um
entsprechende Systeme optimal gestalten zu können. Damit landen wir bei dem
wichtigen Thema der Domänenmodellierung als Teil des Requirements Engineering.
Hier ist sehr viel Potential für die Praxis, aber auch sehr viel Notwendigkeit
für Forschung.
BD: Welche Fragen
sollte die wissenschafts-theoretische Diskussion angehen, die Sie im
Zusammenhang mit Informatik 4.0 fordern?
MB: Ich denke hier gibt es eine Fülle von Fragen. Eine der ganz großen Herausforderungen ist eine Zusammenführung der Modelle der Informatik mit den Modellen des Maschinenbaus und der Physik. Eine zweite wichtige Aufgabe ist, den Informatiker zu einem Lösungsentwickler heranzubilden. Er muss verstehen, wie Informatiksysteme in einem Kontext, der soziale, wirtschaftliche, technische, psychologische und noch viele andere Aspekte enthält zu konzipieren und auf Gültigkeit zu überprüfen und natürlich letztlich auch umzusetzen. Ich will gerade in diesem Zusammenhang noch einmal unterstreichen, für wie wichtig ich es halte, die Programmiertechnik zu beherrschen. Wie ich oben gesagt „Software eats the world“ – nur wer in der Lage ist, erstklassige Software zu schreiben, und das heißt letztlich auch Programmentwicklung, wird in der Lage sein, in diesem sich schnell entwickelnden Gebiet mitzuhalten. Das erfordert aber eine neue zukunftsorientierte Auffassung unseres Fachs Informatik.
BD: Lieber Herr Broy, haben Sie vielen Dank für dieses Interview. Es ist schon eine Weile her seit dem letzten Interview im März 2011. Ihre Gattin und Sie genossen damals gerade einen Seetag auf einer Kreuzfahrt zwischen Fidschi und Hawaii. Dieses Mal kamen die Antworten aus München, zwar nicht weniger schnell, aber dafür um so ausführlicher.
MB: Ich denke hier gibt es eine Fülle von Fragen. Eine der ganz großen Herausforderungen ist eine Zusammenführung der Modelle der Informatik mit den Modellen des Maschinenbaus und der Physik. Eine zweite wichtige Aufgabe ist, den Informatiker zu einem Lösungsentwickler heranzubilden. Er muss verstehen, wie Informatiksysteme in einem Kontext, der soziale, wirtschaftliche, technische, psychologische und noch viele andere Aspekte enthält zu konzipieren und auf Gültigkeit zu überprüfen und natürlich letztlich auch umzusetzen. Ich will gerade in diesem Zusammenhang noch einmal unterstreichen, für wie wichtig ich es halte, die Programmiertechnik zu beherrschen. Wie ich oben gesagt „Software eats the world“ – nur wer in der Lage ist, erstklassige Software zu schreiben, und das heißt letztlich auch Programmentwicklung, wird in der Lage sein, in diesem sich schnell entwickelnden Gebiet mitzuhalten. Das erfordert aber eine neue zukunftsorientierte Auffassung unseres Fachs Informatik.
BD: Lieber Herr Broy, haben Sie vielen Dank für dieses Interview. Es ist schon eine Weile her seit dem letzten Interview im März 2011. Ihre Gattin und Sie genossen damals gerade einen Seetag auf einer Kreuzfahrt zwischen Fidschi und Hawaii. Dieses Mal kamen die Antworten aus München, zwar nicht weniger schnell, aber dafür um so ausführlicher.
Keine Kommentare:
Kommentar veröffentlichen
Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.