Dienstag, 29. November 2016

Kommt demnächst der zweite KI-Winter?

Nach dem allseits bedauerten KI-Winter scheint endlich die Frühlingsonne das Fachgebiet ‚Künstliche Intelligenz‘ zu bescheinen. Die Erfolge von Maschinen, die bisher nur Menschen zugetraute Leistungen erbringen, sind in aller Munde. Beispiele sind selbstfahrende Autos, Schach spielende oder Quizfragen beantwortende Computer. Wie geht dies weiter? So fragen manche. Dass viele Leute versuchen, dazu eine Antwort zu geben, liegt auf der Hand. Meine eigenen Erfahrungen und meine bescheidenen Sachkenntnisse ermutigen mich, mich auf dieses Glatteis zu wagen.

Sicht der Historiker und Philosophen

Die Anregung zu diesem Beitrag ergab sich mal wieder aus einer aktuellen Veröffentlichung. Manfred Dworschak, gelernter Sprachwissenschaftler und Historiker, ist der Wissenschaftsredakteur des SPIEGELs. In Heft 48/2016 setzt er sich unter dem Titel ‚Vogel Strauß auf Rädern` mit dem Thema KI auseinander. Er gibt sich dabei als Anhänger des amerikanischen Philosophen John Searle (*1932) zu erkennen. Von ihm stammte nämlich 1980 das Gedankenexperiment des Chinesisches Zimmers, um zu beschreiben, dass Computer nicht wirklich denken können. Wie viele Historiker so verfällt auch er der Versuchung zu zeigen, dass eigentlich alles, was Techniker heute erfinden, schon mal da war. Dworschak erinnert zum Beispiel an Jacques de Vaucanson (1709-1782).

Als sein Meisterwerk gilt … seine mechanische Ente. Sie bestand aus mehr als 400 beweglichen Einzelteilen, konnte mit den Flügeln flattern, schnattern und Wasser trinken. Sie hatte sogar einen künstlichen Verdauungsapparat: Körner, die von ihr aufgepickt wurden, „verdaute“ sie in einer chemischen Reaktion in einem künstlichen Darm und schied sie daraufhin in naturgetreuer Konsistenz aus.

Aus Dworschaks reich mit Karikaturen geschmücktem Beitrag seien nur ein paar Highlights wiedergegeben. Nach dem mit Lochkarten gefütterten ‚Perceptron‘ von 1958 hätten jedes Mal Forscher auf andere wohlklingende Konzepte gesetzt, so auf formale Logik und genetische Algorithmen, auf Expertensysteme und schließlich doch wieder auf neuronale Netze. Das tolle neue Verfahren sei ‚Deep Learning‘. Von ihm erwarte man ‚Anzeichen eines menschenähnlichen Verstehens‘. Die Firma IBM hätte ein Chip, das ein künstliches Neuron darstelle. Jetzt würde Apple, Microsoft. Amazon und IBM wieder große Summen investieren, nur weil die Marktbeobachter von IDC bis zum Jahre 2025 einen weltweiten Umsatz von 47 Mrd. Dollar projizierten. Auf die Frage. bis wann man alle 100 Billionen Verknüpfungen im Gehirn eines einzelnen Menschen verstanden habe, so dass man das Gehirn nachbauen könnte, soll der Neurobiologe Kenneth D. Miller geantwortet haben: ‚Pi mal Daumen, Jahrhunderte‘. Als deutscher KI-Pionier habe sich Jürgen Schmidhuber (*1963) ‚uneinholbar an die Spitze der Visionäre‘ gesetzt. Der Altmeister Roger Schank (*1946) sähe einen zweiten KI-Winter im Anzug. ‚Es riecht schon nach Schnee‘, soll er gesagt haben.

Eigene Erfahrungen

Mit fast allen im obigen Text erwähnten Techniken hatte ich im Laufe meines Berufslebens zu tun. Über meine eigenen Erfahrungen zum Thema Expertensysteme habe ich in [1] berichtet. Hier ein Ausschnitt:

Ein Expertensystem ist ein Software-System, das die Arbeitsweise eines Experten nachahmt. Es hat eine besondere Struktur, weil es das, was man als Wissen des Experten ansieht, explizit darstellt, und zwar in Form von Regeln. Der Nutzer stellt Fragen an das System. Die Antwort wird gegeben, indem aus Fakten und Regeln Schlussfolgerungen abgeleitet werden. Je nach Problemstellung kommt eine Vorwärts- oder Rückwärtsverkettung der Regeln zur Anwendung. Das Problem, das in diesem Projekt angegangen wurde, bestand darin, anhand eines Speicherabzugs zu erkennen, in welchem Modul ein Problem aufgetreten ist. … Die normalerweise vom menschlichen Experten vorgenommene Analyse versucht die Ursache des Problems zu bestimmen bzw. einzugrenzen. Hierfür gibt es keine festen Algorithmen, sondern nur Adhoc-Methoden.

Das Expertensystem vollzieht nach, welche Daten ein anerkannter Experte sich ansieht und wie er sie bewertet. Deshalb war es entscheidend, dass ein solcher Experte gefunden wurde, der bereit und in der Lage war, sein Wissen zum Thema Software-Fehleranalyse zur Verfügung zu stellen. Seine Vorgehensweise bei der Analyse eines Speicherabzugs wurde abgebildet. Weitere Experten wurden in Interviews um zusätzliche Hinweise befragt. Es wurde ein erster Satz von Regeln (etwa 200) formuliert und auf bekannte Daten angewandt. Danach wurde das System iterativ weiter verbessert, indem unbefriedigende Ergebnisse analysiert und die Regeln erweitert wurden. Das Wissen, das schließlich verarbeitet werden konnte bestand aus etwa 600 Regeln und bezog sich auf alle wichtigen Arten von Problemen, die im Betriebssystem-Kern auftreten können. …Das System liest die Speicherabzüge, kondensiert und strukturiert die Daten. … Aus Symptomen werden Hypothesen generiert, die dann getestet werden. Dieser Aufbau ähnelt einem medizinischen Diagnosesystem. Als Ergebnis der Analyse werden die Namen von einem oder mehreren "verdächtigen" Moduln angegeben. Mit dieser Information kann dann in Datenbanken des Wartungsdienstes nach bekannten Fehlern gesucht werden. 

Beginnend ab 1991 wurde das Expertensystem deutschen Kunden als Teil eines erweiterten Service-Pakets angeboten. Es fand relativ gute Akzeptanz, nachdem verstanden worden war, dass es primär "Routine-Probleme" löste, nicht aber die vom menschlichen Experten als besonders schwierig klassifizierten Fälle. Bei diesen Routine-Problemen reduzierte es den Arbeitsaufwand deutlich. Es förderte darüber hinaus die stärkere Systematisierung der Vorgehensweise und diente als Schulungshilfsmittel für neue Mitarbeiter des Technischen Außendiensts.

Anhand der Beschreibung dieses Fallbeispiels lassen sich die Stärken und Schwächen dieser Technik sehr gut erkennen. Fachwissen lässt sich getrennt darstellen vom Programm, das es verwendet. Das System ist nur so gut wie das erfasste Wissen. Nützliches Wissen ist sehr speziell. Es kann sich rasch ändern. Es besteht für mich kein Zweifel, dass es sich im Falle von Expertensystemen um eine solide Technik handelt. Ihr großer Nachteil ist, dass sie von einem tiefen Wissen über Anwendungen abhängig ist, um Erfolg zu haben. Diese Technik wurde in den Hintergrund gedrängt, weil die gesamte Industrie zunächst auf eine Reihe wesentlich einfacher Anwendungen abfuhr, die sich aufgrund des Hardware-Fortschritts erschließen ließen. Was vorher nur für Fachleute erschwinglich war, wurde zu Massengütern. Der Transport, die Speicherung und die Präsentation riesiger Datenmengen erfordern kein großes Wissen. So wurden Nachrichten, Mails, elektronische Bücher, Fotosammlungen und Videoangebote statt nur für Firmen und Technik-Gurus auch für Privatleute, Jugendliche und Gelegenheitsnutzer zugänglich und erschwinglich.

Nur zur Verdeutlichung: In diesem Blog hatte ich meine private Dreischichten-Informatik vorgestellt, allerdings nur in Bezug auf ihre Anwendungen. Zur Ergänzung möchte ich darauf verweisen, dass einer meiner sieben Rechner, das iPhone 6s (mit seinen rund 37.500 MIPS) eine Leistung von etwa 250 Cray 1 (150 MIPS) aufweist. Seine Hauptspeicherkapazität beträgt das 8.000-fache (64 Gigabytes gegenüber 8 Megabytes). Er kommuniziert im Netz mit einer 100.000-fachen Datenrate (100 Megabit/s gegenüber 1 Kilobit/s). Die Cray 1 war 1976 der schnellste Rechner seiner Zeit, d.h. vor 40 Jahren.

Dass in Deutschland der KI-Winter nicht ins allgemeine Bewusstsein drang, verdanken wir vor allem der Tatsache, dass bei uns die öffentlich geförderte Forschung eine größere Bedeutung zu haben scheint als das Geschehen in der einschlägigen Industrie. (Näheres dazu in meinem Blog-Beitrag zum DFKI.)

Fortschritt aus der Sicht eines Ingenieurs oder Informatikers

Wer über den technischen Fortschritt nachdenkt, kann dafür sehr unterschiedliche Gründe haben. Ein Handwerker mag an die Veränderungen denken, die seiner Tätigkeit bevorstehen oder drohen. Der Bürger oder die Bürgerin sieht Veränderungen in der gewohnten Lebenswelt, usw. Der Ingenieur, aber auch der konstruktiv arbeitende Informatiker, sieht es als seine Aufgabe an, für die Wirtschaft und die Gesellschaft das Potential zu erschließen, das in der sich entwickelnden Technik latent vorhanden ist. Die Technik – und nur sie – bietet Möglichkeiten, das Los der Menschheit zu erleichtern. Sie kann es leichter machen, Bodenschätze zu gewinnen oder Nahrungsmittel zu erzeugen. Sie kann helfen Sachen, Personen oder Informationen von Ort zu Ort zu transportieren. Sie kann eingesetzt werden, um Krankheiten zu heilen oder Behinderungen erträglicher zu machen. Diese Liste lässt sich noch weiter fortsetzen.

Jeder Ingenieur oder Informatiker weiß, dass es keinen Vorteil gibt, ohne Nachteil, keinen Nutzen ohne Kosten, kein Gut ohne Preis. Wer anders argumentiert, vergisst oder versteckt einen Teil der Realität. Dies geschieht oft unbewusst. Da, wo es bewusst geschieht, kann eingegriffen werden. Das setzt allerdings voraus, dass sich die Beteiligten oder die Betroffenen, über die Abwägungen im Klaren sind. Es ist eine Illusion, wenn Informatiker und Ingenieure glauben, dass die Abwägungen über Vor- und Nachteile, über Nutzen und Kosten, von ihnen an andere Berufsgruppen delegiert werden können. Wenn Juristen, Politiker, Philosophen oder Soziologen die Abwägungen treffen, ist die Gefahr groß, dass kein Optimum herauskommt. Es müssen nicht die Egoismen einzelner sein, die das Ergebnis bestimmen. Fehlendes Wissen um mögliche Alternativen kann genauso abträglich sein. Sich einzubilden, dass Ingenieure und Informatiker es allein können, ist ebenfalls von Übel.

Zur Zukunft der KI

Die KI ist eigentlich ein Sammelbegriff für eine Vielzahl von Aktivitäten auf unserem Fachgebiet, für die der eigene Name weniger attraktiv zu sein scheint. Bei Robotik denken viele an Greifarme mit Fingern statt an Software. Computervision ist im Grunde Mustererkennung. Sprechen und Verstehen ist Linguistik. Gliedert man diese Gebiete (und einige ähnliche) aus, fragt es sich, was an KI noch dran ist. Es kann durchaus sein, dass dann die KI (im engeren Sinne) mal wieder den Anschluss verliert. Wenn Forschungsgelder, die unter anderem Titel beantragt werden, reichlicher fließen, können die KI-Banner und T-Shirts mal wieder im Schrank landen. Ob das ein großes Problem darstellt, hängt davon ab, ob man vorher die Kurve bekommen hat oder nicht.

Die Firma IBM ist bemüht den Begriff KI durch den Begriff ‚Kognitive Systeme‘ zu ersetzen. Ihr Flaggschiff auf diesem Gebiet ist zurzeit das System Watson.  Watson ist ein Rechnerverbund bestehend aus 90 Servern mit 16 Terabytes Hauptspeicher. Jeder Server besitzt einen 8-Kern-Prozessor, wobei jeder Kern bis zu vier Threads gleichzeitig ausführt. Es wird massive Parallelisierung betrieben. Mittels Hadoop MapReduce wird eine große Anzahl von normalen, also nicht-formatierten Textdokumenten parallel durchsucht.

Warnung vor Überbewertungen

Es gibt viele Leute, die über gesellschaftliche und ethische Probleme im Zusammenhang mit KI nachdenken. Ich gebe meinem Freund Peter Hiemann dazu das Wort:

Derzeit geistern Vorstellungen durch die mediale Welt, mit denen angedeutet bzw. behauptet wird, dass Homo sapiens dabei ist, in ein neues Zeitalter der Menschheit einzutreten: Maschinen werden sich mittels künstlicher Intelligenz (KI) selbst verbessern können und damit den technischen Fortschritt derart beschleunigen, dass sie das zukünftige Leben der Menschheit demnächst grundlegend verändern werden. Virtuelle Erfahrungen werden die Denk- und Verhaltensweisen der neuen Generation prägen, die Menschheit wird demnächst eine 'transhumanistische Singularität' durchschreiten.

Derartige 'Prognosen' werden von Experten des Silicon Valley verbreitet und treffen sowohl auf leichtgläubige Befürworter als auch abschätzende Kritiker. Es darf  als sicher angenommen werden, dass im 21. Jahrhundert mehr und schneller als jemals zuvor technische Möglichkeiten persönliche Denk- und Verhaltensweisen beeinflussen und prägen werden. Aus der Perspektive technischer Experten  werden alle möglichen technischen Entwicklungen als fortschrittliche Schritte der Menschheit angesehen. Diese allgemeine Perspektive lässt sich nicht aufrechterhalten, wenn die grundlegenden Unterschiede zwischen physikalisch orientierten und biologisch orientierten funktionellen Voraussetzungen bei technischen Anwendungen ausreichend bedacht und verstanden werden.

Referenzen
  1. Forschung und Entwicklung in der IBM Deutschland. II. Die IBM Laboratorien Böblingen: System-Software-Entwicklung. 2001, S.111-112

1 Kommentar:

  1. Jerry Kaplan (ehemals Stanford University) hat in einem Artikel ‘Artificial Intelligence: Think again’ in CACM (Januar 2017) vorgeschlagen, für Roboter und selbstfahrende Autos eine Zertifizierung auf der Basis des Äquivalents von Crash-Tests zu verlangen, d.h. simulierten Auffahrunfällen. Es wäre an der Zeit, die übertriebene Rhetorik in den populären Medien etwas zu unterdrücken, die öffentliche Hysterie nicht weiter anzufeuern und zu überlegen, was es heißt, zivilisierte Maschinen zu bauen.

    AntwortenLöschen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.