Roboter in Schwierigkeiten
Foto: iStock/ Nastassia_Bas

Künstliche Intelligenz – Grenzen und Kritik

Kolumne,

Viele Begriffe aus der Informatik sind schillernd. Doch kaum einer ist so aufgeladen mit Hoffnungen, Übertreibungen und Irrtümern wie die „künstliche Intelligenz“. Grund genug für eine kritische Würdigung eines polarisierenden Phänomens.

„Künstliche Intelligenz“ (KI) polarisiert. Die einen glauben daran, dass die Entwicklung der Computer in eine neue Qualität umschlägt und etwas entstehen lässt, das intelligenter als der Mensch ist. Wenn man die Presse liest, kann man schon auf diese Idee kommen: Nicht nur ist das Wort „intelligent“ in vielerlei IT-Fachausdrücken verbaut. Man liest ja auch, dass Stephen Hawking (Superhirn) und Elon Musk (Super-Ingenieur) vor ihr warnen, weil die KI solche Fortschritte macht. Wenn man aber die Quellen näher ansieht, geben sie gar nicht viel her. Elon Musks Warnung stammt aus einem TV-Interview und war genau einen Satz lang – und vor dem Hintergrund seiner Aktienkäufe ist eher unklar, wie er diese Warnung gemeint hat. Stephen Hawking formuliert nur seine Befürchtungen, dass die Menschheit im Wettbewerb gegen KI verlieren werde und begründet seine Einschätzung materiell nicht. Er initiiert einen Offenen Brief, wonach bei neuer Technologie die sozialen Folgen zu beachten sind – eine Selbstverständlichkeit und eine Reaktion auf das mehr technisch getriebene Silicon Valley und paradoxerweise ganz im Einklang mit anderen Valley-Grössen wie Jaan Tallinn (Skype) und Bill Gates (Microsoft, natürlich). Dieser Brief beschreibt die unstrittigen Fortschritte der KI auf den Gebieten Bilderkennung, Spracherkennung, maschineller Übersetzung und autonomen Fahrzeugen, ohne eine Einordnung vorzunehmen. Auch die Thesen von Facebook-Milliardär Peter Thiel sind praktisch begründungsfrei und müssen vor dem Hintergrund seiner Beteiligungen an KI-Unternehmen gesehen werden. Ein ähnliches Bild vermittelt Telekom-CEO Höttges, der „in Kürze“ den Unterschied beim „Denkvermögen“ zwischen Mensch und Maschine aufgeholt sieht, aber keine Begründung liefert – diese überraschende mentale Wendung des ehemaligen CFO, der reihenweise digitale Dienste geschlossen hat, deutet auf PR-Zwecke. Glaubt man hingegen KI-Professoren wie Wolfgang Wahlster vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) oder Klaus Mainzer (empfehlenswertes Buch „Künstliche Intelligenz – wann übernehmen die Maschinen?“), sehen sie das Überschreiten menschlicher kognitiver Fähigkeiten nicht in Gefahr. Mein Eindruck nach vielen Quellen dazu: Die KI-Berichterstattung hat Elemente eines Medienphänomens, das Medien-Celebrities begünstigt und Übertreibungen verstärkt. Die Wissenschaft, zumal die deutsche, ist da sehr viel weniger emotional. Gründe, mit einem Lobgesang auf KI noch etwas zu warten, gibt es genug.

Noch kein Lobgesang

Gründe, mit einem Lobgesang auf KI noch etwas zu warten, gibt es genug.
Hal 9000
Hal 9000 (Foto: CC0)

Christoph Kappes

Der Turing-Test als heiliger Gral der KI

Ausgerechnet die Prognose von Alan Turing, nach dem nicht ganz zufällig der Turing-Test von 1950 benannt ist (er stellt, vereinfacht gesagt, Intelligenz fest, wenn wir Texte einer Maschine mit denen eines Menschen verwechseln), war im Jahr 2000 weit von ihrem Eintreten entfernt. Marvin Minskys Prognose, die Erschaffung von Maschinenintelligenz gelinge binnen einer Generation, lag ebenfalls um mindestens den Faktor drei daneben. Kein Software-Kandidat für den eigens hierfür ausgelobten Loebner-Preis hat die Jury überzeugt, auch der Chatbot Eugen Gooseman aus 2014 ist erkennbar ein Versuch, nach Regeln trickreich zu spielen: Turing hat nie formuliert, dass der vorgebliche Mensch nur 13 Jahre alt und der Sprache nicht ganz mächtig sein soll (deutliche Kritik hier). 

Es gibt viele KI-Experten, die den Turingtest für ein Setup halten, bei dem alle Menschen wissen, dass die teilnehmenden Bots tricksen, indem sie ausweichen und banale Gegenfragen stellen, wenn es ernst wird (eine herausragende Kritik von Hector Levesque hier). Dieser Test wird dem Laienpublikum gegenüber zwar zum heiligen Gral der KI stilisiert, tatsächlich gibt es aber massiv Kritik an ihm und eine Reihe besserer Vorschläge, zum Beispiel der Lovelace-Test, der auch Kreativität einbezieht oder gar den Metzinger-Test, wonach eine Maschine in die philosophische Debatte zum künstlichen Bewusstsein eingreifen muss. Schließlich wollte Turing nur eine Methode finden, um eine Definition von „Denken“ zu vermeiden. Es bestehen auch Zweifel, dass der Turing-Test überhaupt jemals durchgeführt werden sollte – er ist ein gedankliches Experiment. Daher wirkt die gesamte Rezeption des Turing-Tests ein wenig schildaesk.

Gleichwohl ist er auch als Hilfsmittel fragwürdig: Der Test verlagert eine konzeptionelle Forschungsaufgabe in ein Experimentalszenario, um sie vermeiden zu können. (Früher hieß das: Wenn Du nicht mehr weiter weißt, gründe einen Arbeitskreis). Auch die in der KI heute übliche Fachdefinition als Fähigkeit, ein Problem zu lösen, definiert die Antwort wieder weg, verlagert die Antwort in Konkretisierungen dessen, was ein „Problem“ ist: So hängt es nun vom Schweregrad der Aufgabe und vom Gegenstand ab, wieviel „Intelligenz“ erforderlich ist (vgl. Klaus Mainzer, a.a.o.). Von hier aus kommt man zum Konzept einer „schwachen KI“, die gut isolierbare und algorithmisierbare Problemklassen lösen will: Spracherkennung, Bilderkennung, Navigationssysteme und so weiter. 

Von Beginn an Übertreibungen

Es irritiert insgesamt sehr, dass Informatik und Kognitionswissenschaft sowie einige anliegende Disziplinen einerseits recht anspruchsvolle Theoriegebilde entwickeln (man googele nur die legendäre Debatte um das „Chinesische Zimmer“), andererseits aber in der Außenkommunikation mit ihren Schlüsselbegriffen und ihrer Fachbezeichnung permanente Sinnunfälle produzieren. Wie so häufig haben sich Fachbegriffe aus der Technik gebildet, die von maximalen Hoffnungen geprägt sind (siehe auch Big Data, eigentlich ein Technikparadigma). Man sollte den Begriff der Künstlichen Intelligenz daher generell vermeiden – erst nach Lektüre dieses Textes, versteht sich. Schon über den vorgelagerten Intelligenzbegriff ließe sich mit dem Freiburger Psychologen Robert Heiß etwas böse sagen: „Eine beneidenswerte Situation. Sie wissen nicht, was es ist, aber sie können es messen.“ (zitiert nach Dörner)

Teile der KI präsentieren von Anbeginn an Übertreibungen. Der 1958 so genannte „General Problem Solver“ (GPS-I) löste kein einziges Alltagsproblem von Menschen, die Generalisierung war im Beweis logischer Theoreme zu sehen. Kein Wunder, dass es Anfang der 1970er zum ersten „A.I. Winter“ kam, die Defense Advanced Research Projects Agency (DARPA) des Verteidigungsministeriums der Vereinigten Staaten strich massiv Budgets. Nach einem zweiten Winter kam ein dritter, so berichtet die New York Times erst 2005 . Den naiven Umgang mit Kernbegriffen wie „Verstehen“ und „Problem“ unterzog bereits 1975 Joseph Weizenbaum ausführlicher Kritik, 1981 legte Drew McDermott mit Beispielen zu „wishful mnemonics“ nach, beispielsweise hält er „semantische Netzwerke“ weder für Netzwerke, noch für semantisch. Viele der Übertreibungen waren allerdings dem Zeitgeist geschuldet, der zum Beispiel von naiven kybernetischen Ideen geprägt war („Das Gehirn ist ein Computer“, Norbert Wiener). Aber auch heute hat beispielsweise ein intelligenter, lehrreicher und unterhaltender Autor wie Douglas R. Hofstadter keine Selbstzweifel, wenn er in seinem (lesenswerten) Buch „Die Analogie“ auf knapp 800 Seiten erklärt, wie menschliches Denken funktioniert, nämlich durch Kategorisierung und Analogie, die am Ende schlicht dasselbe seien. Jeder andere Mensch würde wohl noch ein paar Jahre an sich zweifeln, ob er wirklich „das Denken“ erklären könne – für Hofstadter kein Problem. 

Es ist auch keine zehn Jahre her, da erschienen begeisterte Texte über das „Web 3.0“, das „Semantic Web“ (tot, sagte Dominiek ter Heide), „Linked Data“ und das „Web of Data“. Nun weiß man als Profi, dass die publizistische Blütezeit semantischer Verfahren in den 1980ern war, als die KI wissensbasierte Systeme entwickelte, zumeist auch „Expertensysteme“ genannt, und dass semantische Strukturen sehr wohl an vielen Stellen in Webarchitekturen eingeflossen sind, sei es bei Produktfeeds an Google, sei es bei der Wikipedia (Wikidata), sei es bei OpenGovernment. Aber es ist schon merkwürdig, wie einerseits Diskontinuitäten großspurig mit Buzzwords proklamiert werden, während andererseits mehr die Begriffe als die Inhalte wechseln.

Die Singularity-These, wonach aufgrund der Wachstumserwartungen die heutige Quantität an Rechenleistung in eine neue Qualität umschlage, wird zwar immer wieder geäußert, namentlich von Ray Kurzweil in der 50 Jahre alten Tradition von Good, Moore, Moravec (siehe hier), in Deutschland übrigens schon vom Kybernetiker Karl Steinbuch, der an Fortschrittsglauben kaum zu übertreffen war. Nun hat diese These zwar ein paar einleuchtende Argumente für sich, etwa die, dass der Mensch wohl keineswegs das Ende der Evolution darstellt. Gerade weil wir als Menschheit eine weitere Kränkung erfahren könnten, sollten wir uns dieser Theorie bewusst rational nähern. Und man kann die Annahme tatsächlich nicht widerlegen, dass sehr viel „Rechenpower“ irgendwann so etwas wie Intelligenz, Denken, Bewusstsein hervorbringt (wie das physische Gehirn solche mentalen Zustände erreicht, ist ja im Grunde noch weitgehend unerforscht), vielleicht entstehen ja auch emergente Phänomene höherer Ordnung. Auffällig ist aber die Ähnlichkeit der Theorie mit Philosophie (Hegels Weltgeist) und christlicher Religion (der Mensch findet sich in Gott, siehe der instruktive Vergleich mit der Lehre des christlichen Spiritualisten Teilhard de Chardin hier).

Fußballfeldgroße Getüme statt leichter Biomasse

Foto: istock/scanrail

Selbstverständlich sind Fehlschläge in der Vergangenheit oder quasi-religiöse Utopien einer Disziplin nie ein Argument dagegen, dass sich Prognosen erfüllen. Begriffe mögen unklar sein (wie Intelligenz) oder sich bei Erkenntnisfortschritt ändern (wie Semantic Web). Vielleicht ist sogar ein bisschen Chuzpe nötig, um den Golem zu bauen, und ein bisschen werbliche Dreistigkeit gerechtfertigt, um Drittmittel zu akquirieren. Und sicher: KI hat in jüngerer Zeit eine Reihe beachtlicher marktfähiger Produkte geschaffen, die vor allem auf massiven Computereinsatz zur Mustererkennung und machine learning beruhen, Apples „Siri“ zum Beispiel, Google Translate, Gesichtserkennung oder die ersten immerhin teilautonomen Fahrzeuge. Aber stehen wir wirklich vor einem neuen qualitativen Sprung? Wenn Hardware weiterhin der Treiber sein soll, sieht es schlecht aus: Die meisten Experten (inklusive Kurzweil!) erwarten bis 2025 das Ende von Moores Law und Futuristen sehen generell Technikfortschritte nicht in Sprüngen, sondern S-Kurven, die nach steilem Anstieg ein Plateau erreichen (Theodore Modis hier). Warum die Evolution von höchst optimierter, energiesparender und leichtgewichtiger Biomasse (ja, ich meine das Ding auf Ihrem Hals!) nun auf einmal auf fußballfeldgroße Getüme mit angeschlossenem Kraftwerk einen Sprung vornehmen sollte, liegt ebenfalls nicht so recht auf der Hand.

Wenn Systeme über Weltwissen verfügen müssen

Als jemand, der selbst wissensbasierte Systeme aufgebaut hat, gehörte ich Ende der 1980er zu einer Avantgarde der Rechtsinformatiker, welche die Rechtsfindung als den Kern der juristischen Tätigkeit in formallogischen Modellen abbilden wollte. Wir erlebten eine First-Class-Bruchlandung, über die heute niemand mehr spricht. Wer sich mit geplatzten Träumen beschäftigen will, der googele Professor Fritjof Hafts Drittmittelprojekt „LEX1“ mit IBM (Archäologen werden in diesem Buch als Einstieg in den damaligen Stand juristischer Expertensysteme fündig) oder die Rechtskybernetik-Träume von Adalbert Podlech. Wir sind sehr schnell an die Grenzen der symbolischen Systeme gestoßen, als wir logische Regeln auf (logisch repräsentierte) Fakten anwendeten. Das wohl größte Problem ist die Notwendigkeit, dass ein System über allgemeines Weltwissen verfügt. Wer etwa über die Strafbarkeit als „Unerlaubtes Entfernen“ vom Unfallort urteilen will, muss sehr viele Konzepte kennen, die nichts mit Strafrecht zu tun haben: das Wetter zum Beispiel, die Kenntnis von Stadt und Land, die Kenntnis von Körpern (blutet ein Finger oder das Herz?). Auch die heute größten Wissensbasen wie OpenCyc und dbpedia verfügen darüber nicht. Überhaupt ist die Vagheit und Kontextabhängigkeit sprachlicher Begriffe ein großes Problem: Was an der einen Stelle so genannt wird, kann an anderer Stelle ganz anders zu verstehen sein. Große Kopfschmerzen machte mir, dass über 98 Prozent der möglichen Faktenkombinationen kein Jurist auf diesem Planeten auch nur ansatzweise jemals nachgedacht hatte – wie also sollte ich eine Wissensbasis aufbauen, die zuverlässig „richtige“ Ergebnisse produzieren half, wenn ich die Theorie nicht aufbauen konnte? Ein weiteres Problem, worauf auch Joseph Weizenbaum 1975 bereits hinwies: Systeme mit mehr als sehr speziellen Anwendungsfeldern sind von einer Person gar nicht zu überblicken, sie sind immer Teamarbeit. Infolgedessen ist es praktisch unmöglich, die semantische Korrektheit größerer Wissensbasen festzustellen, der Computer kann also unsinnige Ergebnisse produzieren. Es sind noch etliche Probleme mehr, welche der symbolischen KI enge Grenzen setzen, sie ist nur bei gut abgrenzbaren, „kleinen“ und gut formalisierbaren Wissensdomänen und Aufgabenstellungen. Computer sind dort eher Konfigurationsexperten, Rechercheure, Faktenchecker, Zuarbeiter.

So ist etwa die unter dem Schlagwort „Roboterjournalismus“ zu findende Annahme, Computer könnten journalistische Texte schreiben, nur vordergründig richtig. Richtig ist, dass Computer aus Spieltabellen heute Sportberichte und aus Börsendaten Börsenberichte machen. Das sind jedoch nur Umformungen von einem Strukturtyp in einen anderen, mit Statistik werden gewissermaßen Textstücke entsprechend den strukturierten Daten „zusammengesteckt“, mit einer schöpferischen, interpretierenden und ernsthaft sprachverstehenden Journalistentätigkeit hat das nichts zu tun. Besser nennt man das „computational journalism“, der zum Beispiel auch neue Recherchetools umfasst oder maschinell erstellte Kurzfassungen von Texten. Auch bei diesem Genre wird allerdings eher mit Wasser gekocht: Extraktoren machen große Textmengen neu zugreifbar und Abstracts werden durch Textauszüge erstellt, die anhand von Schlagwortdichten und ähnlichem ermittelt werden. Man kann so die meisten aktuellen Schlagzeilen entzaubern. Ganz im Trend ist im Moment auch Legal Tech, das – wie oben erläutert – an den Kern der juristischen Arbeit nicht heranreichen kann: Der Vorgang der Subsumtion ist zwar ein formallogischer Dreizeiler, erfordert aber höchste Denkarbeit. Ganz in sind zurzeit Chatbots („Conversational UI“), die zwar natürliche (Schrift-)Sprache gut in ihre Elemente zerlegen können, aber nicht mehr als Pizzabestellungen aus dem Facebook Messenger erkennen (vor allem Extraktion, gutes Beispiel hier). Ähnliche Denkfehler werden derzeit bei autonomen Fahrzeugen gemacht. Sie sind erstens noch nicht autonom; ein Fahrzeug, bei dem ein Mensch zum Eingriff bereit sein soll, ist per definitionem teilautonom. Die Annahme von „Autonomie“ (wie zum Beispiel hier) ist nämlich, für einen Techniker eventuell überraschend, eine normative Frage. Zweitens braucht ihr Einsatz noch viel Zeit, denn sie sind Teil komplexer soziotechnischer Systeme (Straßen, Ampeln, Begrenzungen, andere Fahrzeuge, Passanten, Katzen, Normen), bei denen Mensch und Natur innerhalb und außerhalb gern für unvorhersehbare Überraschungen sorgen. Auch ist das nächste Problem noch nicht durchdrungen, wie Menschen teilautonomer Fahrzeuge immer so präsent sein können, dass sie notfalls sofort eingreifen können. Der Fahrer beziehungsweise Nichtfahrer verweilt so lange in einem Zustand wie Schrödingers Katze, bis ein Unfall eintritt. 

Christoph Kappes

Christoph Kappes
Christoph Kappes (Foto: privat)

Christoph Kappes wirft gerne kleine Steinchen in den Teich. Im Web kann man ihn dabei beobachten: Unermüdlich setzt er Tweets ab, fast ununterbrochen – so scheint es – nutzt er seinen Facebook-Account für einen unendlichen Strom von Ideen, Kommentaren, schnell Hingeworfenem. „Damit kann ich meine Identität bilden“, sagt er. Nur wer kommuniziert, könne das. Den meisten Menschen wäre das als Tagesinhalt schon genug, Christoph Kappes macht das aber nur nebenher, sozusagen als spielerische Übung. Im Hauptberuf ist er Internetunternehmer. Mit Sascha Lobo gründete er 2013 das E-Book-Unternehmen „Sobooks“ und berät Unternehmen mit der eigenen Agentur. Ein Agenturmensch war er schon immer, zumindest war er Gründer und fast 20 Jahre lang Geschäftsführer der heutigen Pixelpark Agentur in Hamburg. 
Unter dem Titel Digitale Transformationen schreibt Christoph Kappes auf MERTON eine regelmäßige Kolumne über die Frage, wie sich Wirtschaft angesichts der zunehmenden Digitalisierung aller Lebensbereiche verändert oder verändern sollte. 

„Künstliche Intelligenz“ hat strukturelle Grenzen

Neben den oben angeführten Beispielen der Grenzen symbolischer KI sind die gewichtigsten Gründe die Sprachgebundenheit vieler Lösungen und, hierauf hat Paul Schweitzer sehr lesenswert hingewiesen, die Sprache als sich wandelnde Struktur, die in der sozialen Interaktion ständig weiterentwickelt wird. Die Evolution natürlicher Sprachen ist also eine kulturelle Gemeinschaftsleistung, welche Computer nicht erbringen können. 

Das zweite gewichtige Argument wird zum Beispiel von Monica Anderson genannt (und hier), die „Reduktionismus“ für ein prinzipielles Problem hält: Viele Welt-Phänomene sind zu unscharf, zu chaotisch, zu mehrdeutig, als dass sie sich durch Modellbildung zerlegend lösen ließen. Zudem muss die Entscheidung über eine Modellbildung immer ein Mensch treffen, keine Maschine, infolgedessen kann die Maschine ihn kaum schlagen. (Auch die großen Erfolge wie 2011 IBM-Watson im Jeopardy zeigen Fehlerquellen bei unvollständigem Wissen, dass exakt so nicht im Internet aufzufinden war.) Auf die gewissermaßen vorgegebene Anpassungsleistung von Bewusstseinssystemen, Beobachtung und notwendige Nichtbeobachtung zu unterscheiden und das Beobachtete selektiv zu integrieren, weisen übrigens auch Systemtheoretiker wie Luhmann in ganz anderen Zusammenhängen hin. Monica Anderson spricht daher der symbolischen KI sogar ab, „Artificial General Intelligence“ erreichen zu können und traut dies allenfalls den konnektionistischen Ansätzen wie dem Machine Learning zu. Dieses erzeugt selbst die Repräsentation von Inputs und Outputs in einem mehrschichten Netz algorithmisch nachgebildeter Neuronen. Noch aber ist eine Nachbildung eines menschenähnlichen Gehirns schon aufgrund der Zahl der Elemente in weiter Ferne (das Gehirn hat 10 hoch 11 Neuronen, im Vergleich zu maximal 10 hoch 4 künstlichen Neuronen also das Millionenfache), es ist vor allem die Frage, warum mit Hirn und Computer zwei vielleicht ähnliche Strukturen auf höherer, emergenter Ebene gleiche Eigenschaften entwickeln sollten. 

Wahrscheinlich haben künstliche Neuronen sehr viel weniger Verbindungen, vielleicht kommt es auf ganz andere Eigenschaften der Neuronen an, vielleicht spielen Laufzeiten eine Rolle, vielleicht sind diese gar nicht gleichartig, vielleicht sind bestimmte Strukturen für ein Selbst genetisch bedingt immer schon da, vielleicht spielen Sensoren und Bewegung auch eine Rolle (das heißt, mit der Ähnlichkeit ist es doch nicht so weit her): Jedenfalls ist nicht alles, was aus Molekülen besteht, nass.

Heutige KI-Systeme sind ebenfalls noch sehr weit weg von der Fähigkeit, intentional zu handeln. Unabhängig von der wohl noch schwierigeren Frage nach einer Vorstellung von sich selbst und wo diese zu verankern wäre, geht es um die Fähigkeit von Lebewesen, sich selbst-regulierend Ziele zu setzen, ihren Zielen entsprechend zu handeln und den Erfolg zu bewerten. Was Menschen hier täglich vollbringen, ist nicht nur eine kognitive Meisterleistung an Imagination von künftigen Abläufen und Kausalketten, an Entscheidungen und Selbstregulation, es ist obendrein häufig weder bewusst noch rational, es ist an die Physis gekoppelt und erfolgt auch nicht in einem theoretischen Reinraum, sondern entsteht im Handeln und löst sich durch Handeln wieder auf.

In diesem Beitrag sind die Leistungen der KI sicherlich zu kurz gekommen. Die Fähigkeiten zur Objekterkennung, und das auch noch bei bewegten Objekten in Echtzeit, und die Sprachübersetzung in Echtzeit sind ganz sicher Fortschritte und die Berichte von Experten über die Dynamik der vergangenen Jahre sollte man ernst nehmen. Der KI ihre Fehlprognosen und Verirrungen vorzuwerfen, wäre nicht fair. Trotzdem sollte man gegenüber Erfolgsmeldungen in Massenmedien kritisch sein und die Konzepte der KI und ihre naiv-technokratischen Annahmen und Termini an vielen Stellen hinterfragen. Bevor man im umgangssprachlichen Sinne von „Intelligenz“ sprechen kann, hat KI auch noch einige grundsätzliche Hürden zu nehmen, die seit langem bekannt sind.

Kommentare anzeigen