Nach dem allseits bedauerten KI-Winter
scheint endlich die Frühlingsonne das Fachgebiet ‚Künstliche Intelligenz‘ zu
bescheinen. Die Erfolge von Maschinen, die bisher nur Menschen zugetraute
Leistungen erbringen, sind in aller Munde. Beispiele sind selbstfahrende Autos,
Schach spielende oder Quizfragen beantwortende Computer. Wie geht dies weiter?
So fragen manche. Dass viele Leute versuchen, dazu eine Antwort zu geben, liegt
auf der Hand. Meine eigenen Erfahrungen und meine bescheidenen Sachkenntnisse
ermutigen mich, mich auf dieses Glatteis zu wagen.
Sicht der Historiker und Philosophen
Die Anregung zu diesem Beitrag ergab
sich mal wieder aus einer aktuellen Veröffentlichung. Manfred Dworschak, gelernter
Sprachwissenschaftler und Historiker, ist der Wissenschaftsredakteur des
SPIEGELs. In Heft 48/2016 setzt er sich unter dem Titel ‚Vogel Strauß auf
Rädern` mit dem Thema KI auseinander. Er gibt sich dabei als Anhänger des
amerikanischen Philosophen John
Searle (*1932) zu erkennen. Von ihm stammte
nämlich 1980 das Gedankenexperiment des Chinesisches Zimmers, um zu beschreiben, dass Computer nicht wirklich
denken können. Wie viele Historiker so verfällt auch er der Versuchung zu zeigen,
dass eigentlich alles, was Techniker heute erfinden, schon mal da war.
Dworschak erinnert zum Beispiel an Jacques de Vaucanson (1709-1782).
Als sein Meisterwerk gilt … seine mechanische
Ente. Sie bestand aus mehr als 400 beweglichen Einzelteilen, konnte mit den
Flügeln flattern, schnattern und Wasser trinken. Sie hatte sogar einen
künstlichen Verdauungsapparat: Körner, die von ihr aufgepickt wurden,
„verdaute“ sie in einer chemischen Reaktion in einem künstlichen Darm und
schied sie daraufhin in naturgetreuer Konsistenz aus.
Aus Dworschaks reich mit Karikaturen
geschmücktem Beitrag seien nur ein paar Highlights wiedergegeben. Nach dem mit
Lochkarten gefütterten ‚Perceptron‘ von 1958 hätten jedes Mal Forscher auf andere
wohlklingende Konzepte gesetzt, so auf formale Logik und genetische
Algorithmen, auf Expertensysteme und schließlich doch wieder auf neuronale
Netze. Das tolle neue Verfahren sei ‚Deep Learning‘. Von ihm erwarte man ‚Anzeichen
eines menschenähnlichen Verstehens‘. Die Firma IBM hätte ein Chip, das ein künstliches
Neuron darstelle. Jetzt würde Apple, Microsoft. Amazon und IBM wieder große
Summen investieren, nur weil die Marktbeobachter von IDC bis zum Jahre 2025
einen weltweiten Umsatz von 47 Mrd. Dollar projizierten. Auf die Frage. bis
wann man alle 100 Billionen Verknüpfungen im Gehirn eines einzelnen Menschen
verstanden habe, so dass man das Gehirn nachbauen könnte, soll der Neurobiologe
Kenneth D. Miller geantwortet
haben: ‚Pi mal Daumen, Jahrhunderte‘. Als deutscher KI-Pionier habe sich Jürgen Schmidhuber (*1963) ‚uneinholbar an die Spitze der Visionäre‘ gesetzt. Der
Altmeister Roger Schank
(*1946) sähe einen zweiten KI-Winter im Anzug. ‚Es riecht schon nach Schnee‘,
soll er gesagt haben.
Eigene Erfahrungen
Mit fast allen im obigen Text erwähnten
Techniken hatte ich im Laufe meines Berufslebens zu tun. Über meine eigenen
Erfahrungen zum Thema Expertensysteme habe ich in [1] berichtet. Hier ein
Ausschnitt:
Ein Expertensystem ist ein
Software-System, das die Arbeitsweise eines Experten nachahmt. Es hat eine
besondere Struktur, weil es das, was man als Wissen des Experten ansieht,
explizit darstellt, und zwar in Form von Regeln. Der Nutzer stellt Fragen an
das System. Die Antwort wird gegeben, indem aus Fakten und Regeln
Schlussfolgerungen abgeleitet werden. Je nach Problemstellung kommt eine Vorwärts-
oder Rückwärtsverkettung der Regeln zur Anwendung. Das Problem, das in diesem
Projekt angegangen wurde, bestand darin, anhand eines Speicherabzugs zu
erkennen, in welchem Modul ein Problem aufgetreten ist. … Die normalerweise vom
menschlichen Experten vorgenommene Analyse versucht die Ursache des Problems zu
bestimmen bzw. einzugrenzen. Hierfür gibt es keine festen Algorithmen, sondern
nur Adhoc-Methoden.
Das Expertensystem vollzieht nach,
welche Daten ein anerkannter Experte sich ansieht und wie er sie bewertet.
Deshalb war es entscheidend, dass ein solcher Experte gefunden wurde, der
bereit und in der Lage war, sein Wissen zum Thema Software-Fehleranalyse zur
Verfügung zu stellen. Seine Vorgehensweise bei der Analyse eines Speicherabzugs
wurde abgebildet. Weitere Experten wurden in Interviews um zusätzliche Hinweise
befragt. Es wurde ein erster Satz von Regeln (etwa 200) formuliert und auf
bekannte Daten angewandt. Danach wurde das System iterativ weiter verbessert,
indem unbefriedigende Ergebnisse analysiert und die Regeln erweitert wurden.
Das Wissen, das schließlich verarbeitet werden konnte bestand aus etwa 600
Regeln und bezog sich auf alle wichtigen Arten von Problemen, die im
Betriebssystem-Kern auftreten können. …Das System liest die Speicherabzüge,
kondensiert und strukturiert die Daten. … Aus Symptomen werden Hypothesen
generiert, die dann getestet werden. Dieser Aufbau ähnelt einem medizinischen
Diagnosesystem. Als Ergebnis der Analyse werden die Namen von einem oder
mehreren "verdächtigen" Moduln angegeben. Mit dieser Information kann
dann in Datenbanken des Wartungsdienstes nach bekannten Fehlern gesucht
werden.
Beginnend ab 1991 wurde das
Expertensystem deutschen Kunden als Teil eines erweiterten Service-Pakets
angeboten. Es fand relativ gute Akzeptanz, nachdem verstanden worden war, dass
es primär "Routine-Probleme" löste, nicht aber die vom menschlichen
Experten als besonders schwierig klassifizierten Fälle. Bei diesen
Routine-Problemen reduzierte es den Arbeitsaufwand deutlich. Es förderte
darüber hinaus die stärkere Systematisierung der Vorgehensweise und diente als
Schulungshilfsmittel für neue Mitarbeiter des Technischen Außendiensts.
Anhand der Beschreibung dieses
Fallbeispiels lassen sich die Stärken und Schwächen dieser Technik sehr gut
erkennen. Fachwissen lässt sich getrennt darstellen vom Programm, das es
verwendet. Das System ist nur so gut wie das erfasste Wissen. Nützliches Wissen
ist sehr speziell. Es kann sich rasch ändern. Es besteht für mich kein Zweifel, dass es
sich im Falle von Expertensystemen um eine solide Technik handelt. Ihr großer
Nachteil ist, dass sie von einem tiefen Wissen über Anwendungen abhängig ist,
um Erfolg zu haben. Diese Technik wurde in den Hintergrund gedrängt, weil die gesamte Industrie
zunächst auf eine Reihe wesentlich einfacher Anwendungen abfuhr, die sich
aufgrund des Hardware-Fortschritts erschließen ließen. Was vorher nur für Fachleute
erschwinglich war, wurde zu Massengütern. Der Transport, die Speicherung und
die Präsentation riesiger Datenmengen erfordern kein großes Wissen. So wurden
Nachrichten, Mails, elektronische Bücher, Fotosammlungen und Videoangebote
statt nur für Firmen und Technik-Gurus auch für Privatleute, Jugendliche und
Gelegenheitsnutzer zugänglich und erschwinglich.
Nur zur Verdeutlichung: In diesem Blog hatte ich meine private Dreischichten-Informatik vorgestellt, allerdings nur in Bezug auf ihre
Anwendungen. Zur Ergänzung möchte ich darauf verweisen, dass einer meiner
sieben Rechner, das iPhone 6s (mit seinen rund 37.500 MIPS) eine Leistung von
etwa 250 Cray 1 (150 MIPS) aufweist. Seine Hauptspeicherkapazität beträgt das
8.000-fache (64 Gigabytes gegenüber 8 Megabytes). Er kommuniziert im Netz mit
einer 100.000-fachen Datenrate (100 Megabit/s gegenüber 1 Kilobit/s). Die Cray
1 war 1976 der schnellste Rechner seiner Zeit, d.h. vor 40 Jahren.
Dass in Deutschland der KI-Winter nicht
ins allgemeine Bewusstsein drang, verdanken wir vor allem der Tatsache, dass
bei uns die öffentlich geförderte Forschung eine größere Bedeutung zu haben
scheint als das Geschehen in der einschlägigen Industrie. (Näheres dazu in
meinem Blog-Beitrag zum DFKI.)
Fortschritt aus der Sicht eines
Ingenieurs oder Informatikers
Wer über den technischen Fortschritt
nachdenkt, kann dafür sehr unterschiedliche Gründe haben. Ein Handwerker mag an
die Veränderungen denken, die seiner Tätigkeit bevorstehen oder drohen. Der
Bürger oder die Bürgerin sieht Veränderungen in der gewohnten Lebenswelt, usw.
Der Ingenieur, aber auch der konstruktiv arbeitende Informatiker, sieht es als seine Aufgabe an, für die Wirtschaft
und die Gesellschaft das Potential zu erschließen, das in der sich
entwickelnden Technik latent vorhanden ist. Die Technik – und nur sie – bietet
Möglichkeiten, das Los der Menschheit zu erleichtern. Sie kann es leichter
machen, Bodenschätze zu gewinnen oder Nahrungsmittel zu erzeugen. Sie kann
helfen Sachen, Personen oder Informationen von Ort zu Ort zu transportieren.
Sie kann eingesetzt werden, um Krankheiten zu heilen oder Behinderungen
erträglicher zu machen. Diese Liste lässt sich noch weiter fortsetzen.
Jeder Ingenieur oder Informatiker weiß,
dass es keinen Vorteil gibt, ohne Nachteil, keinen Nutzen ohne Kosten, kein Gut
ohne Preis. Wer anders argumentiert, vergisst oder versteckt einen Teil der
Realität. Dies geschieht oft unbewusst. Da, wo es bewusst geschieht, kann
eingegriffen werden. Das setzt allerdings voraus, dass sich die Beteiligten
oder die Betroffenen, über die Abwägungen im Klaren sind. Es ist eine Illusion,
wenn Informatiker und Ingenieure glauben, dass die Abwägungen über Vor- und
Nachteile, über Nutzen und Kosten, von ihnen an andere Berufsgruppen delegiert
werden können. Wenn Juristen, Politiker, Philosophen oder Soziologen die
Abwägungen treffen, ist die Gefahr groß, dass kein Optimum herauskommt. Es
müssen nicht die Egoismen einzelner sein, die das Ergebnis bestimmen. Fehlendes
Wissen um mögliche Alternativen kann genauso abträglich sein. Sich einzubilden,
dass Ingenieure und Informatiker es allein können, ist ebenfalls von Übel.
Zur Zukunft der KI
Die KI ist eigentlich ein Sammelbegriff
für eine Vielzahl von Aktivitäten auf unserem Fachgebiet, für die der eigene
Name weniger attraktiv zu sein scheint. Bei Robotik denken viele an Greifarme
mit Fingern statt an Software. Computervision ist im Grunde Mustererkennung.
Sprechen und Verstehen ist Linguistik. Gliedert man diese Gebiete (und einige
ähnliche) aus, fragt es sich, was an KI noch dran ist. Es kann durchaus sein, dass dann die
KI (im engeren Sinne) mal wieder den Anschluss verliert. Wenn Forschungsgelder, die unter anderem Titel beantragt werden, reichlicher
fließen, können die KI-Banner und T-Shirts mal wieder im Schrank landen. Ob das
ein großes Problem darstellt, hängt davon ab, ob man vorher die Kurve bekommen
hat oder nicht.
Die Firma IBM ist bemüht den Begriff KI durch den Begriff ‚Kognitive Systeme‘ zu ersetzen. Ihr Flaggschiff auf diesem Gebiet
ist zurzeit das System Watson. Watson ist ein Rechnerverbund bestehend
aus 90 Servern mit 16 Terabytes Hauptspeicher. Jeder Server besitzt einen 8-Kern-Prozessor,
wobei jeder Kern bis zu vier Threads gleichzeitig ausführt. Es wird massive
Parallelisierung betrieben. Mittels Hadoop MapReduce wird
eine große Anzahl von normalen, also nicht-formatierten Textdokumenten parallel
durchsucht.
Warnung vor Überbewertungen
Es gibt viele Leute, die über
gesellschaftliche und ethische Probleme im Zusammenhang mit KI nachdenken. Ich
gebe meinem Freund Peter Hiemann dazu das Wort:
Derzeit geistern Vorstellungen durch die
mediale Welt, mit denen angedeutet bzw. behauptet wird, dass Homo sapiens dabei
ist, in ein neues Zeitalter der Menschheit einzutreten: Maschinen werden sich
mittels künstlicher Intelligenz (KI) selbst verbessern können und damit den
technischen Fortschritt derart beschleunigen, dass sie das zukünftige Leben der
Menschheit demnächst grundlegend verändern werden. Virtuelle Erfahrungen werden
die Denk- und Verhaltensweisen der neuen Generation prägen, die Menschheit wird
demnächst eine 'transhumanistische Singularität' durchschreiten.
Derartige 'Prognosen' werden von
Experten des Silicon Valley verbreitet und treffen sowohl auf leichtgläubige
Befürworter als auch abschätzende Kritiker. Es darf als sicher angenommen werden, dass im 21.
Jahrhundert mehr und schneller als jemals zuvor technische Möglichkeiten
persönliche Denk- und Verhaltensweisen beeinflussen und prägen werden. Aus der
Perspektive technischer Experten werden
alle möglichen technischen Entwicklungen als fortschrittliche Schritte der
Menschheit angesehen. Diese allgemeine Perspektive lässt sich nicht
aufrechterhalten, wenn die grundlegenden Unterschiede zwischen physikalisch
orientierten und biologisch orientierten funktionellen Voraussetzungen bei
technischen Anwendungen ausreichend bedacht und verstanden werden.
Referenzen
- Forschung und Entwicklung in der IBM Deutschland. II. Die IBM Laboratorien Böblingen: System-Software-Entwicklung. 2001, S.111-112
Jerry Kaplan (ehemals Stanford University) hat in einem Artikel ‘Artificial Intelligence: Think again’ in CACM (Januar 2017) vorgeschlagen, für Roboter und selbstfahrende Autos eine Zertifizierung auf der Basis des Äquivalents von Crash-Tests zu verlangen, d.h. simulierten Auffahrunfällen. Es wäre an der Zeit, die übertriebene Rhetorik in den populären Medien etwas zu unterdrücken, die öffentliche Hysterie nicht weiter anzufeuern und zu überlegen, was es heißt, zivilisierte Maschinen zu bauen.
AntwortenLöschen