Otthein Herzog (Jahrgang 1944) ist seit 2010
Professor of Visual Information Technologies an der Jacobs University Bremen. Von 1993-2009 war er Professor
für Künstliche Intelligenz an der Universität Bremen, seit 2009 hat er dort
eine Forschungsprofessur inne. Er war Sprecher des TZI - Technologie-Zentrums
Informatik und Informationstechnik, des SFB 637 “Selbststeuerung logistischer
Prozesse” und des “Mobile Research Center”. Seit 1998 ist er Affiliate Professor am Machine Learning and Inference
Laboratory, George Mason University, Fairfax, VA, USA.
Nach
dem Studium in Tübingen, Stuttgart, Karlsruhe und Bonn wurde er 1976 in
Informatik an der Universität Dortmund promoviert. Von 1977 bis 1993 war er
Mitarbeiter der IBM Deutschland in der Software-Entwicklung und Forschung; 1989
auch Gründungsmitglied des SFB “Grundlagen der Computerlinguistik” der
Universitäten Stuttgart, Tübingen und der IBM. Seine Forschungsinteressen sind:
semantische Analyse von Bildern und Videos, mobile Anwendungen in der
Arbeitswelt, und Multi-Agenten-Systeme für die Produktion und Logistik. Er ist
gewähltes Mitglied der nationalen Deutschen Akademie der Technikwissenschaften,
Fellow der Gesellschaft für Informatik, wissenschaftlicher Beirat in mehreren
Institutionen und hat mehr als 240 referierte wissenschaftliche Arbeiten
publiziert.
Bertal
Dresen (BD): In diesem
Interview möchte ich am Anfang kurz in Ihre berufliche Vergangenheit
zurückgehen. Sie haben später andern Themen Ihre Aufmerksamkeit gewidmet. Ich
werde auf sie zurückkommen. Beginnen möchte ich mit einer Definition für Computerlinguistik (CL): Sie erforscht die maschinelle Verarbeitung natürlicher
Sprachen. Sie erarbeitet die theoretischen Grundlagen der Darstellung, Erkennung
und Erzeugung gesprochener und geschriebener Sprache durch Maschinen. Was sind heute die markantesten und erfolgreichsten
Anwendungen? Ich meine im täglichen Leben, nicht im Labor. Worin sehen Sie
heute die wichtigsten und schwierigsten Fragestellungen?
Otthein
Herzog (OH): Ohne Zweifel
hat die Spracherkennung mit der anschließenden semantischen Interpretation des
Inputs (z. B. Siri auf dem iPhone), aber mit eingeschränktem Vokabular im Auto
einen entscheidenden Durchbruch erzielt. Die Ergebnisse der Computerlinguistik
(einschließlich Semantik-Methoden) sind entscheidend für die Interpretation der
„unstrukturierten Daten“, also der Texte im Internet, um z. B. die Suche
effizient und effektiv zu machen. Ohne Computerlinguistik ist das „Knowledge
Mining“ im Internet nicht möglich. Dennoch: die wichtigsten und schwierigsten
Fragestellungen sind m. E. heute immer noch, Texte, Bilder und Videos im
Zusammenhang semantisch im richtigen Kontext zu interpretieren.
BD: Hat nicht die Leistungssteigerung
von Rechnern das Gebiet in letzter Zeit enorm angetrieben? Ein Lexikon speichern
kann heute jedes Mobiltelefon, sogar in mehreren Sprachen gleichzeitig. Welcher
Teil der Problemlösung ist nur eine Frage der Speicher- oder Rechnerkapazität? Wo
kommt es auf neue Algorithmen oder Erfindungen an? Wie sehen Sie die
‚Arbeitsteilung‘ zwischen Linguisten und Informatikern?
OH: Problemlösungen für
Sprachverarbeitung (und Bilder/Videos) werden immer eine große Speicher- und
Rechenkapazität benötigen – und je mehr, desto besser. Für die semantische
Analyse in einem richtigen Kontext werden auch neue Algorithmen für die Analyse
von Korpora und für das maschinelle Lernen benötigt, für die InformatikerInnen
wesentliche Beiträge leisten können: es werden effiziente und effektive
Algorithmen benötigt!
BD: Die IBM Deutschland war in
der Zeit, als Sie dort tätig waren, sehr aktiv auf dem CL-Gebiet, zuerst in
Heidelberg und später in Stuttgart. Das Projekt LILOG verbinde nicht nur ich mit Ihrem
Namen. Es gibt eine ausgezeichnete Dokumentation über das Projekt. Dass ein
Dutzend Mitarbeiter anschließend eine Hochschul-Karriere machten ist bekannt. Würden
Sie – trotzdem ̶ für unsere Leser die Hauptziele des Projekts
umreißen. Wieweit wurden diese Ziele erreicht?
OH:
Im Wissenschaftlichen Zentrum der
IBM in Heidelberg (WZH) hatte die Computerlinguistik schon sehr früh einen
herausragenden wissenschaftlichen Schwerpunkt, der allerdings bei dem groß
angelegten Projekt „Operationalisierung des Fahrerfluchtparagraphen“ auf seine
Grenzen stieß. Es zeigte sich, dass die semantische Komponente für die
Auslegung der Gesetzestexte und der zahlreichen Urteile der schwierigste Teil
des Projektes war.
Das
LILOG-Projekt (LILOG war die Kurzform für „Linguistic and Logical Methods and
Tools for the Computational Understanding of German“) beruht auf einem Vorschlag,
der 1985 vom Albrecht Blaser, dem damaligen Leiter des WZH, an Karl Ganzhorn,
seinen Bereichsleiter bei IBM, herangetragen worden war. Er sollte diese Lücke
schließen. Ich zitiere aus einer meiner ersten LILOG-Folien, die der Unternehmensleitung
der IBM Deutschland präsentiert wurde. Folgende technologische Ziele wurden gesehen:
- Teil 1: Entwicklung einer vollständigen Datenbank für linguistisches Wissen über die deutsche Sprache mit (linguistischem) Wörterbuch, Thesaurus (Wortbedeutungen), Grammatik mit Funktionen und Algorithmen für Update, Abfragen und automatische Manipulation
- Teil 2: Vorantreiben der Theorie, um Algorithmen zur Dialog-Analyse und zur Deduktion entwickeln zu können, die für die Gewinnung von Wissen und für logisches Schließen in realistisch großen Anwendungen brauchbar sind.
Zur Zielerreichung des LILOG-Projekts: Für den Teil 1 ist
festzuhalten: Es wurden sogar zwei Grammatiken zusammen mit den entsprechenden
Wörterbüchern und einem Lexikon für das Deutsche entwickelt, je eine für die
Analyse und die Generierung von deutschen Sätzen, die für „normale“, also
nicht-künstlerische Texte aus zwei Anwendungsgebieten („Wanderung“ und „Stadtinformationssystem
Düsseldorf“) ziemlich brauchbar waren.
Für den Teil 2 gilt, dass er noch mehr als Teil 1 von
der verfügbaren Computertechnologie abhing. Aber auch hier (LILOG wurde in
Prolog geschrieben!) wurden wesentliche Fortschritte in Theorie und praktischen
Anwendungen erreicht: Beweiser für die Prädikatenlogik erster Stufe,
Wissensrepräsentation mittels Ontologien-Technologie mit getypten
Verarbeitungsmechanismen, Objekt-orientierte Datenbank. Darüber hinaus wurden
in dieser Präsentation auch strategische Ziele benannt:
- Das Projekt ist ein erster Schritt in eine strategische Richtung: Aufbau von Erfahrung; Neue SW-Technologie wird vorangetrieben und in der IBM Deutschland verfügbar
- Kurzfristige Auswirkungen/Nutzen: Das Marktpotential mehr traditioneller Anwendungen wird vergrößert: Textverarbeitung (Büro-Anwendungen); Natürliche Sprachen als Schnittstellen (z.B. zu Datenbanken); Dokumentation; Beschleunigte Marktdurchdringung für Expertensysteme (zusätzlicher HW-Umsatz)
- Die akademische/wissenschaftliche Welt wird schneller erschlossen
Die genannten kurzfristigen Ziele konnten nur zum Teil
erfüllt werden, auch weil sich die Strategie der IBM änderte. So wurde z. B.
die Textverarbeitung aufgegeben. Was aber die langfristigen Ziele betrifft, war
das Projekt sehr erfolgreich: LILOG war die Grundlage für viele Projekte mit
wissensbasierten Komponenten im WZH, die zusammen mit Kunden durchgeführt
wurden. Dadurch konnte die IBM Deutschland auch ihren Ruf als innovative Firma
in Industrie und Wissenschaft verbessern.
Nach der Auflösung des WZH wechselte der IBM-Kern des
LILOG-Teams fast geschlossen in das Böblinger Labor, wo ich 1993 gerade noch
vor meinem Ruf an die Universität Bremen ein „Data Mining“ Projekt in den USA
akquiriert hatte, das den Amerikanern zu risikoreich war. Das seitdem in
Böblingen entwickelte und außerordentlich erfolgreiche IBM Data Mining-Produkt
wäre ohne die in LILOG gewonnenen Erfahrungen nicht denkbar und noch weniger
implementierbar gewesen.
BD: Wie sehen sie heute die technische
und kommerzielle Langzeitwirkung dieses Projekts in Deutschland? Hat es
Deutschland im Weltmarkt (inklusive der Wissenschaft) nach vorne gebracht? Welche
Ergebnisse (Erfindungen, Algorithmen, Prototypen) aus LILOG bilden die
Grundlage heutiger Produkte, sei es bei IBM oder anderswo?
OH: Das LILOG-Projekt hat die Operationalisierung
der Analyse und Generierung natürlicher Sprache weltweit in den Blickpunkt
gerückt (leider nicht bei der IBM, obwohl schon 1993 das semantische
Information Retrieval mit dem IBM Search und Thesaurus Manager von mir in
Sindelfingen entwickelt und in den Markt gebracht worden war). Microsoft hatte
das erkannt und die Computerlinguistik-Forscher aus dem IBM Labor in Yorktown Heights
abgeworben, die dann mit der Überprüfung von Grammatik und der Wortkorrektur in
Word und auch mit der Volltextsuche in Windows erfolgreich waren. In
Deutschland selbst hat das (damalige) BMBF einige sehr große Projekte auf diesem
Gebiet gefördert, die mit mäßigen Erfolgen abschlossen, sicherlich aber auch
zur Gründung einiger Firmen geführt haben, die sich mit der Verarbeitung
natürlicher Sprache befassten (z. T. durch ehemalige LILOG-Mitarbeiter wie Hans
Uszkoreit).
Die entscheidende Wirkung von LILOG dürfte darin bestanden haben, dass durch die LILOG-Prototypen gezeigt wurde, dass solche Systeme mit natürlich-sprachlichen Schnittstellen und einer ausgefeilten Wissensrepräsentation auf interdisziplinärer Grundlage überhaupt möglich waren. Es wäre sicherlich zu viel behauptet, LILOG als „Urvater“ der modernen Internet-Suche oder des semantischen Information Retrieval zu bezeichnen, aber mindestens hat LILOG diese Systeme denkbar gemacht. Darüber hinaus stellten Teile der erarbeiteten LILOG-Technologien wertvolle Grundlagen für kommerzielle Produkte dar (z. B. IBM Search und Thesaurus Manager, IBM Data Mining).
Die entscheidende Wirkung von LILOG dürfte darin bestanden haben, dass durch die LILOG-Prototypen gezeigt wurde, dass solche Systeme mit natürlich-sprachlichen Schnittstellen und einer ausgefeilten Wissensrepräsentation auf interdisziplinärer Grundlage überhaupt möglich waren. Es wäre sicherlich zu viel behauptet, LILOG als „Urvater“ der modernen Internet-Suche oder des semantischen Information Retrieval zu bezeichnen, aber mindestens hat LILOG diese Systeme denkbar gemacht. Darüber hinaus stellten Teile der erarbeiteten LILOG-Technologien wertvolle Grundlagen für kommerzielle Produkte dar (z. B. IBM Search und Thesaurus Manager, IBM Data Mining).
BD: Mehrere Kollegen von uns bei IBM,
besonders diejenigen mit einer Hardware-Vergangenheit, hatten Schwierigkeiten
den Sinn von LILOG und ähnlichen CL-Projekten des WZH einzusehen. Sie stellten
nicht nur deren Wissenschaftlichkeit in Frage, sondern auch ihre
wirtschaftliche Relevanz. Einige hielten die natürlichsprachige
Datenbankabfrage für Spielerei. Können Sie das nachvollziehen? Ist Ihnen diese
Einstellung auch außerhalb IBMs begegnet? Hat sich in den letzten Jahrzehnten
eine Veränderung der Einstellungen eingestellt?
OH: Aus meinen Bemerkungen in den
vorherigen Abschnitten wird deutlich, dass ich die Software-Aspekte von LILOG als
Grundlage für die weitere Entwicklung noch heute für besonders wichtig halte. Ich
halte es immer noch für sehr bedauerlich, dass die IBM Deutschland dieses ganze
Gebiet trotz des immensen Vorsprungs vor den Mitbewerbern sehr schnell wieder
aufgegeben hat. Schon mit dem Aufkommen des „World Wide Web“ 1995 hätte IBM
eine gute Suchfunktion auf der eigenen Technologiebasis entwickeln können (die
ich damals nachweislich empfohlen hatte)!
BD: Wie Sie wissen, hat die
Bundesregierung sehr viel Geld auf diesem Gebiet ausgegeben. Stichwort Verbmobil.
Wie sehen Sie den Ertrag dieser Investition? Hat die Industrie es versäumt, das
Marktpotential zu nutzen?
OH: Diese vom BMBF geförderten
Großprojekte hatten sicherlich als Ergebnis, dass das DFKI wuchs und gedieh und
auch noch heute sehr erfolgreich ist. Kommerziell litten sie (wie viele
BMBF-Projekte) unter der mangelnden Bereitschaft der großen Firmen, die erarbeiteten
Ergebnisse in Produkte umzusetzen: der Schritt von der Invention zur Innovation
wurde nicht oder viel zu selten unternommen.
BD: Die CL galt früher als Teilgebiet
oder aber nahe verwandt mit der Künstlichen Intelligenz (abgekürzt KI). Nach einem
fulminanten Start am MIT (McCarthy, Minsky) und bei IBM (Rochester, Samuel)
brach in den USA der so genannte KI-Winter aus. Gemeint ist, dass sowohl das
industrielle Interesse als auch die öffentlich Förderung wegfielen. Auf fast
wundersame Weise blieb dieser KI-Winter Deutschland erspart. Können Sie das
erklären? Hat Deutschland Vorteile daraus gewonnen, jetzt wo das Wort KI wieder
in aller Munde ist?
OH: Dieser
KI-Winter blieb Deutschland erspart, weil sich die deutsche KI seit Anfang der
90er Jahre stark auf Anwendungen von wissensbasierten, also KI-Technologien
konzentriert hatte. Dadurch wurde der potenzielle Nutzen nie wirklich in Frage
gestellt. Und vielleicht hat die deutsche KI auch nicht solche vollmundigen
Versprechen gemacht wie die amerikanischen Forscher…
BD: Manche Leute betrachten den Ausdruck
KI als ein Sammelname für riskante Forschung. Bricht ein Gebiet aus, wie z.B.
die Robotik, lässt die das Prädikat KI fallen. Ist dies das generelle Schicksal
der KI? Ist der Name nicht auch dadurch belastet, dass natürliche Intelligenz
schwer zu definieren ist?
OH: Alle Forschung ist riskant, nicht
nur die KI-Forschung, sonst wäre es keine Forschung. Sicher war aber die
KI-Forschung manchmal sehr riskant, weil man sich Ziele setzte, die schon aufgrund
der verfügbaren Hard- und Software kaum erreichbar waren. Andererseits: wenn
man heute Artikel in den frühen Ausgaben des IBM System Journals aus den 50er
Jahren des letzten Jahrhunderts liest, drängt sich schnell auf, dass große
Versprechen nicht nur von der KI gemacht wurden. Möglicherweise ist das eine
Falle, in die jede neue Wissenschaft leicht gehen kann.
BD: Sie haben bzw. hatten einen
Lehrstuhl für Künstliche Intelligenz inne. Für welches Ihrer vielen Projekte
hatten Sie den Eindruck, dass hier die Analogie zum menschlichen Verstand nicht nur hilfreich,
sondern bestimmend war?
OH: In keinem meiner vielen Projekte
habe ich je eine Analogie zum menschlichen Verstand auch nur am Rande erwähnt.
Jedem, der sich ernsthaft mit der Materie befasst, wird schnell klar, dass die
Lücke zwischen mit vertretbarem Aufwand maschinell erreichbaren Zielen und dem
„Computer zwischen den Ohren“ für universelle Anwendungen immer noch riesig
ist, auch wenn man das sehr fortgeschrittene IBM System „Watson“ mit in das
Kalkül einbezieht.
BD: Ohne jetzt zu tief einsteigen zu
wollen: die Frage, wie verhält sich Wissen und Sprache ist für mich sehr
interessant. Wie sehen Sie das?
OH: Man muss hier sicherlich zwei Dinge
unterscheiden: man benötigt erworbenes Wissen, um Sprache zu beherrschen, und
viele Wissensgebiete sind nur aufgrund von Sprache (von natürlicher Sprache bis
hin zu Programmiersprachen) kommunizierbar. Überspitzt könnte man sagen: Ohne
Sprache kein bewusstes Wissen, und kein bewusstes Wissen ohne Sprache.
BD: Lange Jahre waren Sie an der
Universität Bremen. Sie gilt als etwas links-lastige Massenuniversität. Jetzt
gehören Sie zur Jacobs Universität, einer kleinen privaten Hochschule. Können
Sie die Unterschiede kurz beschreiben, und zwar sowohl aus Sicht der
Professoren als auch aus Sicht der Studenten.
OH: Leider ist das Vorurteil über die
Universität Bremen als „rote Kaderschmiede“ kaum auszurotten. Mit ihren 20.000
Studierenden, starken Ingenieur-, Meeres- und Sozialwissenschaften gehört sie
inzwischen zu den elf deutschen Exzellenz-Universitäten, leidet aber zur Zeit
deutlich unter den Sparmaßnahmen des Landes Bremen. Die „private“ Jacobs
University Bremen hat im Gegensatz zur Universität Bremen die Möglichkeit, sich
ihre 1.400 Studierenden selbst auszuwählen.
Aus der
Sicht eines Professors an der Jacobs University ist es eine besondere Herausforderung,
die multikulturellen und intellektuellen Herausforderungen der Studierenden aus
mehr als 110 Ländern aufzunehmen und einen Großteil der Arbeitszeit der
interdisziplinären Lehre zu widmen. Der Erfolg wird klar gekennzeichnet
dadurch, dass die Studierenden wesentlich besser motiviert sind für
Studienleistungen, und dass 95% der Studierenden eines Jahrgangs nach drei
Jahren den Bachelor-Abschluss erwerben! Aus der Sicht der Studierenden, die bis
zum Bachelor-Abschluss auf dem Campus wohnen und (fast ausschließlich) leben,
ist die hohe Arbeitsbelastung, auch durch die Interdisziplinarität des
Lehrangebots sicherlich eine Herausforderung neben dem Lernen über andere
Kulturen im täglichen Miteinander und dem akademischen Konkurrenzkampf.
BD: Sie haben
das TZI an der Universität Bremen gegründet und über lange Jahre geleitet.
Warum, und was wurde erreicht?
OH: Zusammen mit einigen KollegInnen habe
ich das TZI – Technologie-Zentrum Informatik als ein ‚In-Institut‘ der Universität Bremen im Mai 1995 gegründet, knapp zwei Jahre nach dem Antritt meiner
KI-Professur in Bremen. Es wuchs sehr schnell und hatte im Jahr 2009, als ich
es an meinen Nachfolger übergab, 160 MitarbeiterInnen und einen Etat von über 7
Mio. €, davon 80% Drittmittel. Wir gründeten das TZI aus der Einsicht heraus, dass
- neben Forschung und Lehre der Technologie-Transfer auch zu den Aufgaben einer Universität gehört,
- die Industrie durch den Einsatz von mehr und besserer Software bessere Produkte anbieten kann,
- einzelne Arbeitsgruppen keine Gesamtlösungen anbieten können und deshalb eine institutionelle Integration mit einem „lean management“ sinnvoll ist,
- die Forschung durch das Aufgreifen von Problemen aus der Praxis nur gewinnen kann
Diese
Strategie führte zu einem erfolgreichen Aufbau und nachhaltigen Wirken des TZI über
nun fast zwanzig Jahre hin, eine Zeitraum, in dem sich das Institut einige Male
„neu erfand“ auf dem Hintergrund von neu verfügbaren Technologien. Weder hat
die Forschung in dieser Zeit unter dem Transfer-Gedanken gelitten, noch hat der
Transfer mit der Notwendigkeit von Akquisition die Forschung in den Hintergrund
gedrängt..
BD: Sie sind in den letzten Jahren bei
der acatech engagiert, der Akademie der
Technikwissenschaften. Was kann oder wird sich aufgrund
ihrer Tätigkeit in Deutschland ändern als Standort für Forschung, Wirtschaft
und Berufe mit technischer Ausrichtung?
OH: acatech als Akademie der
Technikwissenschaften ist im Unterschied zu anderen wissenschaftlichen
Akademien über den acatech-Senat stark mit der Industrie in Deutschland
verbunden. In der relativ kurzen Zeit ihres Bestehens ist es acatech aufgrund
der besonderen Mitgliederstruktur gelungen, für alle denkbaren Technik-Themen
interdisziplinäre Kompetenzen einzusetzen und fundierte Empfehlungen auf den
verschiedensten Technik-Gebieten an die Regierung auszusprechen. So wird z.B.
der Innovationsdialog der Kanzlerin mit Wirtschaft und Wissenschaft von einem
der beiden acatech-Präsidenten, Henning Kagermann organisiert. acatech hat z.B.
schon sehr früh Empfehlungen für die Energiewende erarbeitet und war maßgeblich
zusammen mit der Forschungsunion beteiligt an der Entwicklung der Programme des
BMBF und des BMWi zu „Industrie 4.0“ und „Smart Service Welt“ – beides wegweisende
Strategien für die deutsche Industrie. Insofern leistet acatech wertvolle Beiträge,
um dazu beizutragen, dass aus Ideen Innovationen und aus Innovationen Chancen
auf Wohlstand in Deutschland erwachsen.
BD: Herr Herzog, haben Sie vielen Dank
für dieses ausführliche und interessante Interview. Es ist nicht anzunehmen,
dass es in Ihrem Ruhestand an Aufgaben mangelt.
Keine Kommentare:
Kommentar veröffentlichen
Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.