Dienstag, 11. Juni 2019

KI zwischen Utopie und Distopie

Kaum ein anderes Thema beschäftigt die fachliche wie die öffentliche Diskussion in diesen Tagen in vergleichbarem Umfang wie die Künstliche Intelligenz (Abk. KI, engl. artificial intelligence, Abk. AI). Nur das verwandte Thema Digitalisierung erreicht eine ähnliche Aufmerksamkeit. Beide Themen hatten ihren Ursprung im Fachlichen, haben diesen Bereich jedoch seit einigen Jahrenzehnten verlassen. Der Anlass für diesen Beitrag ist das Buch Künstliche Intelligenz (2018, 272 S.) der freien Wissenschaftsjournalistin und promovierten Philosophin Manuela Lenzen (Das Geburtsjahr der Autorin konnte ich nicht finden, dafür aber verrät sie uns, dass sie mit ihrer Familie und ‚ein paar Hühnern, Schafen, Kaninchen, Katzen, Goldfischen und was Kinder sonst noch so haben möchten‘ in einem alten Zieglerhaus im Lipperland lebt).

Wie in Deutschland üblich befasst sich das Buch gut zur Hälfte mit den Problemen, die uns die KI schon heute bereitet, aber vor allem in Zukunft bereiten kann. Das ist die Distopie. Nur ganz am Schluss gesteht die Autorin, dass KI eigentlich Stoff für eine Utopie sei. Als Techniker erlaube ich es mir, die Reihenfolge zu vertauschen.

Notwendige Utopien

Eine Utopie ist eine Welt, in der wir leben möchten. Techniker brauchen sie, ja alle Menschen brauchen sie. Wir möchten einen Verkehr, der sicher, pünktlich und individualisierbar ist. Wir möchten keine ungesunden und anstrengenden Arbeiten machen. Wir möchten eine Güterproduktion ohne lange Transportwege, wo Losgröße 1 möglich ist. Wir möchten eine Nahrungsmittelversorgung, die ohne Schäden für die Umwelt erfolgt und uns wohlbekommt. Wir möchten, dass alle Gifte und Abfälle, die der Umwelt überlassen werden, erkannt und beseitigt werden. Wir möchten, dass individuelle Erkrankungen früh erkannt und gezielt behandelt werden. Wir möchten kluge, energiesparende Häuser, Wohnungen und Betriebstätten, eine kluge und freundliche Stadt- und Staatsverwaltung. Wir möchten alle unsere Lernprozesse und die Entwicklung unserer Persönlichkeit individuell gestalten. Wir möchten auf öffentliche Datenbestände zugreifen können mit Suchmaschinen, die nicht betrügen. Wenn KI dies alles ermöglicht, dann - so die Autorin - bitte mit Prüfsiegel, das erklärt, was als zuverläßlich gilt.

Aufgebauschte Distopien

Ein selbstfahrendes Auto hat in Kalifornien einen Menschen getötet. Daran denkt jeder. Nicht jedoch denkt man an die zehn Menschen, die täglich auf deutschen Straßen sterben. Roboter seien schuld, wenn Automobilfabriken Arbeiter entlassen. Zur gleichen Zeit jammern fast alle Unternehmer über den Mangel an Fachkräften und die nicht besetzbaren Lehrstellen. Das Unkrautmittel Glyphosat verursacht angeblich Krebs. Früh erkannte Erbkrankheiten erhöhen die Zahl der Abtreibungen. Penible Wohnungs- und Betriebsüberwachung öffnet das Scheunentor für jede Form der politischen und gesellschaftlichen Überwachung. Individuelle Lehr- und Lernmethoden konterkarieren das Gleichheitsideal. Je mehr Daten über Menschen vorliegen, umso leichter sind diese zu manipulieren. Was China seinen Bürgern antut, dazu waren Nazis und DDR-Kommunisten zum Glück noch nicht in der Lage.

Schreckensbilder zu malen hat fast immer den Zweck, eine potentielle Gefahr zu verdeutlichen. Nur indem man auf sie aufmerksam macht, lässt sich eine Entwicklung abwenden, die unerwünscht ist. Das Abwägen von Vorteilen gegenüber Nachteilen ist Teil der normalen Tätigkeit eines Ingenieurs. Nichts ist unabänderlich, sagte Angela Merkel neulich zu den Absolventen von Harvard.

Ursprungsmythos eines Fachgebiets

So wie das Fachgebiet Software Engineering 1968 in Garmisch, so entsprang die KI  aus einem Treffen von Akademikern und Praktikern 1956 in Dartsmouth, MA. Zwei der Teilnehmer dieses Treffens sind den Lesern dieses Blogs bekannt. Es sind dies John McCarthy (1927-2011) und Nat Rochester (1919-2001). Um diese Zeit versuchte man sich bereits an der Programmierung von Spielen wie Dame (Arthur Samuel, Poughkeepsie, NY) und GO (Horst Remus, Böblingen). Andere Autoren befassten sich mit dem automatischen Erstellen mathematischer Beweise. Die Ergebnisse haben noch nicht sehr beeindruckt.

Einen Achtungserfolg erzielten Projekte, die sich als Expertensysteme ausgaben (Mycin, Dendral). Sie codierten das Spezialwissen eines Haut- oder Nervenarztes, um anderen Ärzten oder Laien die Möglichkeit zu verschaffen, sinnvolle Diagnosen zu machen. Meine Mitarbeiter wandten dieses Verfahren an, um Problemsituationen bei Betriebssystemen durch Nicht-Experten bearbeiten zu können. Die Erfolge waren sehr abhängig von der Art der Wissensquelle und der Stabilität des zu analysierenden Systems. Der Ansatz war leider nicht skalierbar, so dass das Interesse schnell verflog.

Da die Kunde von Misserfolgen sich schnell verbreitete, ließ bei den Sponsoren der akademischen Forschung das Interesse nach, weitere Mittel für die KI zu bewilligen. Es folgte, was weltweit als KI-Winter bezeichnet wurde. Die einzige Ausnahme war Deutschland, wo die Bundesregierung die Forschungsförderung in KI kontinuierlich aufstockte. Mit dem DFKI, das ich im September 2013 in diesem Blog vorstellte, entstand eine imposante Großforschungseinrichtung. Seit 2018 ist die Firma Google als Geschäftspartner und Investor am DFKI beteiligt.

Steter Fortschritt und Massenerfolg

Neue Fachgebiete entstehen meist durch Abspaltung aus einem älteren Fachgebiet, so wie die Physik einst aus der Philosophie und die Technik aus der Physik entand. Ursprünglich zur KI gehörten die Muster- und Spracherkennung mit dem maschinellen Übersetzen sowie die Robotik. Heute betreuen eigene Lehrstühle diese Gebiete. Der technische Fortschritt auf diesen Gebieten war enorm. Er erfolgte ziemlich kontinuierlich.

Anders war es mit dem Thema maschinelles Lernen (engl. machine learning, Abk. ML). Hier war der Fortschritt über lange Zeit sehr gering und sporadisch. Das änderte sich in den letzten Jahren, einerseits durch schwellenhaftes Anwachsen der Rechnerleistung und der digital und online verfügbaren Datenmengen, andererseits durch neue Methoden. Hier ist es vor allem das so genannte Tiefe Lernen (engl. deep learning), das der KI zu einem neuen Frühling verhalf. Geoffrey Hinton und seine zwei Kollegen, denen wir dieses Verfahren zu verdanken haben, wurden durch den diesjährigen Turing-Preis der ACM geehrt.

Es ist daher nicht verwunderlich, dass bei KI heute fast nur noch an ML gedacht wird. Wenn heute davon die Rede ist, dass wieder sehr viel in KI investiert wird, werden fast immer die fünf bis sechs Marktführer der IT-Branche (Apple, Amazon, Google, Facebook. Microsoft und IBM gefolgt von Alibaba, Baidu und Tencent) genannt. Akademische Projekte haben kaum noch Relevanz. Wer weiß was ML ist, der könne sich eines Stellenangebots von Google sicher sein – so heißt es.

Anthromorphismus und Konkurrenz zum Menschen

Wie erwartet, fühlt sich die Philosophin Lenzen sehr angesprochen von allen Versuchen, Vergleiche zum Menschen auszudrücken und zu bewerten. Das beginnt mit der Verwendung von Anthromorphismen. Überall liest man, dass Computer sehen, hören, sprechen, planen, denken, lernen, analysieren und handeln. Anstatt KI wäre ‚anthropomorphes Computing‘ für sie ein besser passender Begriff. Auch zwingt die KI uns dazu, die Begriffe Intelligenz, Autonomie, Kreativität, Gefühle und Bewusstsein besser zu verstehen.

Wir wissen, dass Computer heute bereits viele Dinge besser können als der Mensch, genauer gesagt, als einzelne Menschen. Es kann sehr sinnvoll sein, derartige Spezialfähigkeiten weiter zu steigern. Schlecht schneiden Computer immer da ab, wo verschiedene Fähigkeiten zusammenspielen oder wo allgemeines Weltwissen gefragt ist. Das Cyc-System, an dem Douglas Lenat (*1950) seit über 30 Jahren arbeitet, hat inzwischen 500.000 Begriffe, 17.000 Beziehungen und 7 Millionen Sätze. Es hatte bisher weniger Erfolg als das System Watson, das sein Wissen aus nicht-formatierten Daten gewinnt. Es muss von Fachgebiet zu Fachgebiet neutrainiert werden, was nicht immer überzeugend war. Das System Watson macht ausführlichen Gebrauch von einem Hypothesen-Generator, der anschließend bewertet und eliminiert.

Auch wurden die Fortschritte in der Sprachverarbeitung nicht durch bessere linguistische Methoden und Analysen erzielt, sondern durch die massenhafte Verwendung von Musterübersetzungen aus dem europäischen und kanadischen Parlament. Bezeichnend ist das Zitat von Fred Jelinek, dem Leiter eines Projekts bei IBM: ‚Jedes Mal wenn ich einen Linguisten feuere, verbessert sich die Sprachübersetzung‘.

Lernen heißt Hypothesen bilden und mit der Realität vergleichen

Dass wir überhaupt lernen können, verdanken wir der Tatsache, dass die Welt nicht chaotisch ist. Wir müssen nicht wissen, wie und warum etwas funktioniert, um es beherrschen zu lernen. Moderne maschinelle Lernverfahren benötigen sehr viele Daten, weil dies die künstlichen neuronale Netzte (Abk. KNN) erfordern. Dass Spielprogramme sich verbessern, indem sie gegen sich selbst spielen, klingt geradezu nach ‚Science Fiction‘. Ein Roboter ist umso flexibler, je differenzierter sein Weltbild ist. Mehrere Roboter können in dasselbe KNN hinein lernen.

Die Frage, die John Searle (*1932) einst stellte, ist auch bei Googles Alexa weiterhin offen, Es ist zu bestreiten, dass Computer je Texte so ‚verstehen', wie wir Menschen sie verstehen. Manuela Lenzen hält dieses Frage für zweitrangig.

Auch Big Data hat Grenzen

Die KI hat das Potential, auch der Wissenschaft zu mehr Durchblick zu verhelfen. Sie kann dabei helfen, große Datenmengen zu sichten und Hypothesen aufzustellen. Das klingt ganz gut. Es ist nämlich meist kein Problem Korrelationen in den Daten zu finden. Korrelationen dürfen aber nicht als Kausalitäten missverstanden werden, wie das Beispiel Störche und Kleinkinder erklärt.

Je mehr in der Medizin die Patientendaten anonymisiert werden, desto weniger wertvoll seien sie. Dennoch versucht in Deutschland die medizinische Informatik verstärkt Patientendaten zu sammeln, die sie bis 2022 verfügbar machen will. Es ist vorstellbar, dass demnächst eine von Computern erstellte Diagnose genauer ist als die eines Arztes. Damit ist dieser Beruf in keinster Weise gefährdet.

Prognosen zum Arbeitsmarkt und zur Evolution

Manuela Lenzen hält die Idee, dass wegen KI die Arbeit ausgeht, für absurd. Dass es jedoch zu Veränderungen kommt, ist unvermeidlich. Es werden weniger niedrig qualifizierte, aber viele hoch qualifizierte Arbeitskräfte benötigt. Ein bedingungsloses Grundeinkommen (Abk. BGE) löse das falsche Problem, da der normale Mensch arbeiten will.

‚Kommt mal wieder auf den Teppich!‘ So ruft Manuela Lenzen ihren Lesern zu. Computer hätten keine Machtinstinkte. Sie sperren uns Menschen nicht in den Kaninchenstall. Unsere Wirtschaft wächst, da überall investiert wird, im Moment mit KI als starker Grund.

Dass Computer, wenn sie sich einmal selbst trainieren, mehr und schneller lernen als wir Menschen, mag Ängste erwecken. Da die Evolution durch das Zusammenwirken von Geschöpfen erfolgte, die Erworbenes vererben konnten, warum sollten wir nicht eines Tages in der Lage sein, unsere Computer zu beerben? Es gäbe dann eine Art gemeinsame Evolution. Mit Hilfe intelligenter Maschinen müssen wir uns und diese Maschinen immer wieder korrigieren und verbessern. Gut wäre es, wenn dies dezentral erfolgen würde.

2 Kommentare:

  1. Christoph Land aus der Nähe von Tübngen schrieb: Manuela Lenzen ist 1967 in Bochum geboren. Sie studierte Philosophie, Geschichte, Politikwissenschaft und Ethnologie in Bochum und Bielefeld. Promotion in Philosophie an der Universität Bielefeld 2002, derzeit freie Wissenschaftsjournalistin mit den Schwerpunkten Philosophie und Lebens- und Kognitionswissenschaften.

    AntwortenLöschen
  2. Nicht alles was mir Sorgen macht, hat mit KI zu tun. Wir essen Champignons und andere Pilze, die in chinesischen Dörfern auf Kuhmist gezüchnet wurden und Tomaten und Erdbeeren, für deren Wachstum das Grundwasser um Alicante in Andalusien angezapft wurde.

    AntwortenLöschen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.