Kaum ein anderes Thema beschäftigt die fachliche wie die
öffentliche Diskussion in diesen Tagen in vergleichbarem Umfang wie die Künstliche
Intelligenz (Abk. KI, engl. artificial
intelligence, Abk. AI). Nur das verwandte Thema Digitalisierung erreicht
eine ähnliche Aufmerksamkeit. Beide Themen hatten ihren Ursprung im Fachlichen,
haben diesen Bereich jedoch seit einigen Jahrenzehnten verlassen. Der Anlass
für diesen Beitrag ist das Buch Künstliche Intelligenz
(2018, 272 S.) der freien Wissenschaftsjournalistin und promovierten
Philosophin Manuela Lenzen
(Das Geburtsjahr der Autorin konnte ich nicht finden, dafür aber verrät sie
uns, dass sie mit ihrer Familie und ‚ein paar Hühnern, Schafen, Kaninchen,
Katzen, Goldfischen und was Kinder sonst noch so haben möchten‘ in einem alten
Zieglerhaus im Lipperland lebt).
Wie in Deutschland üblich befasst sich das Buch gut zur Hälfte mit
den Problemen, die uns die KI schon heute bereitet, aber vor allem in Zukunft
bereiten kann. Das ist die Distopie. Nur ganz am Schluss gesteht die Autorin,
dass KI eigentlich Stoff für eine Utopie sei. Als Techniker erlaube ich es mir,
die Reihenfolge zu vertauschen.
Notwendige Utopien
Eine Utopie ist eine Welt, in der wir leben möchten. Techniker
brauchen sie, ja alle Menschen brauchen sie. Wir möchten einen Verkehr, der
sicher, pünktlich und individualisierbar ist. Wir möchten keine ungesunden und
anstrengenden Arbeiten machen. Wir möchten eine Güterproduktion ohne lange Transportwege,
wo Losgröße 1 möglich ist. Wir möchten eine Nahrungsmittelversorgung, die ohne
Schäden für die Umwelt erfolgt und uns wohlbekommt. Wir möchten, dass alle
Gifte und Abfälle, die der Umwelt überlassen werden, erkannt und beseitigt
werden. Wir möchten, dass individuelle Erkrankungen früh erkannt und gezielt
behandelt werden. Wir möchten kluge, energiesparende Häuser, Wohnungen und
Betriebstätten, eine kluge und freundliche Stadt- und Staatsverwaltung. Wir
möchten alle unsere Lernprozesse und die Entwicklung unserer Persönlichkeit individuell
gestalten. Wir möchten auf öffentliche Datenbestände zugreifen können mit Suchmaschinen,
die nicht betrügen. Wenn KI dies alles ermöglicht, dann - so die Autorin - bitte mit Prüfsiegel,
das erklärt, was als zuverläßlich gilt.
Aufgebauschte Distopien
Ein selbstfahrendes Auto hat in Kalifornien einen Menschen
getötet. Daran denkt jeder. Nicht jedoch denkt man an die zehn Menschen, die
täglich auf deutschen Straßen sterben. Roboter seien schuld, wenn
Automobilfabriken Arbeiter entlassen. Zur gleichen Zeit jammern fast alle Unternehmer über den
Mangel an Fachkräften und die nicht besetzbaren Lehrstellen. Das Unkrautmittel
Glyphosat verursacht angeblich Krebs. Früh erkannte Erbkrankheiten erhöhen die Zahl der
Abtreibungen. Penible Wohnungs- und Betriebsüberwachung öffnet das Scheunentor für
jede Form der politischen und gesellschaftlichen Überwachung. Individuelle
Lehr- und Lernmethoden konterkarieren das Gleichheitsideal. Je mehr Daten über
Menschen vorliegen, umso leichter sind diese zu manipulieren. Was China seinen
Bürgern antut, dazu waren Nazis und DDR-Kommunisten zum Glück noch nicht in der
Lage.
Schreckensbilder zu malen hat fast immer den Zweck, eine
potentielle Gefahr zu verdeutlichen. Nur
indem man auf sie aufmerksam macht, lässt sich eine Entwicklung abwenden, die
unerwünscht ist. Das Abwägen von Vorteilen gegenüber Nachteilen ist Teil der
normalen Tätigkeit eines Ingenieurs. Nichts ist unabänderlich, sagte Angela
Merkel neulich zu den Absolventen von Harvard.
Ursprungsmythos eines Fachgebiets
So wie das Fachgebiet Software Engineering 1968 in Garmisch, so
entsprang die KI aus einem Treffen von
Akademikern und Praktikern 1956 in Dartsmouth, MA. Zwei der Teilnehmer dieses
Treffens sind den Lesern dieses Blogs bekannt. Es sind dies John
McCarthy (1927-2011) und Nat
Rochester (1919-2001). Um diese Zeit versuchte man sich bereits an der
Programmierung von Spielen wie Dame (Arthur Samuel, Poughkeepsie, NY) und GO
(Horst Remus, Böblingen). Andere Autoren befassten sich mit dem automatischen
Erstellen mathematischer Beweise. Die Ergebnisse haben noch nicht sehr
beeindruckt.
Einen Achtungserfolg erzielten Projekte, die sich als Expertensysteme
ausgaben (Mycin, Dendral). Sie codierten das Spezialwissen eines Haut- oder
Nervenarztes, um anderen Ärzten oder Laien die Möglichkeit zu verschaffen,
sinnvolle Diagnosen zu machen. Meine Mitarbeiter wandten dieses Verfahren an,
um Problemsituationen bei Betriebssystemen durch Nicht-Experten bearbeiten zu
können. Die Erfolge waren sehr abhängig von der Art der Wissensquelle und der
Stabilität des zu analysierenden Systems. Der Ansatz war leider nicht
skalierbar, so dass das Interesse schnell verflog.
Da die Kunde von Misserfolgen sich schnell verbreitete, ließ bei
den Sponsoren der akademischen Forschung das Interesse nach, weitere Mittel für
die KI zu bewilligen. Es folgte, was weltweit als KI-Winter bezeichnet wurde. Die
einzige Ausnahme war Deutschland, wo die Bundesregierung die Forschungsförderung
in KI kontinuierlich aufstockte. Mit dem DFKI,
das ich im September 2013 in diesem Blog vorstellte, entstand eine imposante
Großforschungseinrichtung. Seit 2018 ist die Firma Google als Geschäftspartner
und Investor am DFKI beteiligt.
Steter Fortschritt und Massenerfolg
Neue Fachgebiete entstehen meist durch Abspaltung aus einem
älteren Fachgebiet, so wie die Physik einst aus der Philosophie und die Technik
aus der Physik entand. Ursprünglich zur KI gehörten die Muster- und Spracherkennung
mit dem maschinellen Übersetzen sowie die Robotik. Heute betreuen eigene
Lehrstühle diese Gebiete. Der technische Fortschritt auf diesen Gebieten war
enorm. Er erfolgte ziemlich kontinuierlich.
Anders war es mit dem Thema maschinelles Lernen (engl. machine learning, Abk. ML). Hier war der
Fortschritt über lange Zeit sehr gering und sporadisch. Das änderte sich in den
letzten Jahren, einerseits durch schwellenhaftes Anwachsen der
Rechnerleistung und der digital und online verfügbaren Datenmengen, andererseits
durch neue Methoden. Hier ist es vor allem das so genannte Tiefe Lernen (engl. deep learning), das der KI zu einem neuen
Frühling verhalf. Geoffrey Hinton und seine zwei Kollegen, denen wir dieses
Verfahren zu verdanken haben, wurden durch den diesjährigen Turing-Preis der
ACM geehrt.
Es ist daher nicht verwunderlich, dass bei KI heute fast nur noch
an ML gedacht wird. Wenn heute davon die Rede ist, dass wieder sehr viel in KI
investiert wird, werden fast immer die fünf bis sechs Marktführer der
IT-Branche (Apple, Amazon, Google, Facebook. Microsoft und IBM gefolgt von
Alibaba, Baidu und Tencent) genannt. Akademische Projekte haben kaum noch
Relevanz. Wer weiß was ML ist, der könne sich eines Stellenangebots von Google
sicher sein – so heißt es.
Anthromorphismus und Konkurrenz zum Menschen
Wie erwartet, fühlt sich die Philosophin Lenzen sehr angesprochen
von allen Versuchen, Vergleiche zum Menschen auszudrücken und zu bewerten. Das
beginnt mit der Verwendung von Anthromorphismen. Überall liest man, dass
Computer sehen, hören, sprechen, planen, denken, lernen, analysieren und
handeln. Anstatt KI wäre ‚anthropomorphes Computing‘ für sie ein besser
passender Begriff. Auch zwingt die KI uns dazu, die Begriffe Intelligenz,
Autonomie, Kreativität, Gefühle und Bewusstsein besser zu verstehen.
Wir wissen, dass Computer heute bereits viele Dinge besser können
als der Mensch, genauer gesagt, als einzelne Menschen. Es kann sehr sinnvoll
sein, derartige Spezialfähigkeiten weiter zu steigern. Schlecht schneiden
Computer immer da ab, wo verschiedene Fähigkeiten zusammenspielen oder wo
allgemeines Weltwissen gefragt ist. Das Cyc-System, an dem Douglas Lenat (*1950) seit
über 30 Jahren arbeitet, hat inzwischen 500.000 Begriffe, 17.000 Beziehungen
und 7 Millionen Sätze. Es hatte bisher weniger Erfolg als das System
Watson, das sein Wissen aus nicht-formatierten Daten gewinnt. Es muss von
Fachgebiet zu Fachgebiet neutrainiert werden, was nicht immer überzeugend war. Das
System Watson macht ausführlichen Gebrauch von einem Hypothesen-Generator, der
anschließend bewertet und eliminiert.
Auch wurden die Fortschritte in der Sprachverarbeitung nicht durch
bessere linguistische Methoden und Analysen erzielt, sondern durch die
massenhafte Verwendung von Musterübersetzungen aus dem europäischen und
kanadischen Parlament. Bezeichnend ist das Zitat von Fred Jelinek, dem Leiter
eines Projekts bei IBM: ‚Jedes Mal wenn ich einen Linguisten feuere,
verbessert sich die Sprachübersetzung‘.
Lernen heißt Hypothesen bilden und mit der Realität vergleichen
Dass wir überhaupt lernen können, verdanken wir der Tatsache, dass
die Welt nicht chaotisch ist. Wir müssen
nicht wissen, wie und warum etwas funktioniert, um es beherrschen zu lernen. Moderne
maschinelle Lernverfahren benötigen sehr viele Daten, weil dies die künstlichen
neuronale Netzte (Abk. KNN) erfordern. Dass Spielprogramme sich verbessern,
indem sie gegen sich selbst spielen, klingt geradezu nach ‚Science Fiction‘. Ein
Roboter ist umso flexibler, je differenzierter sein Weltbild ist. Mehrere Roboter
können in dasselbe KNN hinein lernen.
Die Frage, die John
Searle (*1932) einst stellte, ist auch bei Googles Alexa weiterhin offen,
Es ist zu bestreiten, dass Computer je Texte so ‚verstehen', wie wir Menschen
sie verstehen. Manuela Lenzen hält dieses Frage für zweitrangig.
Auch Big Data hat Grenzen
Die KI hat das Potential, auch der Wissenschaft zu mehr Durchblick
zu verhelfen. Sie kann dabei helfen, große Datenmengen zu sichten und
Hypothesen aufzustellen. Das klingt ganz gut. Es ist nämlich meist kein Problem
Korrelationen in den Daten zu finden. Korrelationen dürfen aber nicht als Kausalitäten
missverstanden werden, wie das Beispiel Störche und Kleinkinder erklärt.
Je mehr in der Medizin die Patientendaten anonymisiert werden,
desto weniger wertvoll seien sie. Dennoch versucht in Deutschland die medizinische
Informatik verstärkt Patientendaten zu sammeln, die sie bis 2022 verfügbar
machen will. Es ist vorstellbar, dass demnächst eine von Computern erstellte
Diagnose genauer ist als die eines Arztes. Damit ist dieser Beruf in keinster Weise
gefährdet.
Prognosen zum Arbeitsmarkt und zur Evolution
Manuela Lenzen hält die Idee, dass wegen KI die Arbeit ausgeht, für
absurd. Dass es jedoch zu Veränderungen kommt, ist unvermeidlich. Es werden
weniger niedrig qualifizierte, aber viele hoch qualifizierte Arbeitskräfte
benötigt. Ein bedingungsloses Grundeinkommen (Abk. BGE) löse das falsche
Problem, da der normale Mensch arbeiten will.
‚Kommt mal wieder auf den Teppich!‘ So ruft Manuela Lenzen ihren Lesern zu.
Computer hätten keine Machtinstinkte. Sie sperren uns Menschen nicht in den Kaninchenstall.
Unsere Wirtschaft wächst, da überall investiert wird, im Moment mit KI als
starker Grund.
Dass Computer, wenn sie sich einmal selbst trainieren, mehr und
schneller lernen als wir Menschen, mag Ängste erwecken. Da die Evolution durch
das Zusammenwirken von Geschöpfen erfolgte, die Erworbenes vererben konnten,
warum sollten wir nicht eines Tages in der Lage sein, unsere Computer zu
beerben? Es gäbe dann eine Art gemeinsame Evolution. Mit Hilfe intelligenter
Maschinen müssen wir uns und diese Maschinen immer wieder korrigieren und
verbessern. Gut wäre es, wenn dies dezentral erfolgen würde.
Christoph Land aus der Nähe von Tübngen schrieb: Manuela Lenzen ist 1967 in Bochum geboren. Sie studierte Philosophie, Geschichte, Politikwissenschaft und Ethnologie in Bochum und Bielefeld. Promotion in Philosophie an der Universität Bielefeld 2002, derzeit freie Wissenschaftsjournalistin mit den Schwerpunkten Philosophie und Lebens- und Kognitionswissenschaften.
AntwortenLöschenNicht alles was mir Sorgen macht, hat mit KI zu tun. Wir essen Champignons und andere Pilze, die in chinesischen Dörfern auf Kuhmist gezüchnet wurden und Tomaten und Erdbeeren, für deren Wachstum das Grundwasser um Alicante in Andalusien angezapft wurde.
AntwortenLöschen