Foto: iStock/PeopleImages

„Sie überholen uns“

Selbstlernende Algorithmen, neue Rechnerarchitekturen nach dem Vorbild natürlicher Nervensysteme, Predictive Analytics: Werden wir bald von Maschinen abgehängt? Interview mit dem KI-Forscher Klaus Mainzer.

2015 hat das Software-Programm AlphaGo den amtierenden Weltmeister im japanischen Brettspiel Go geschlagen – einem wesentlich komplexeren Brettspiel als Schach. Erleben wir nun einen Hype um Künstliche Intelligenz (KI), der erstmals auch wirklich begründet ist?
Es sieht ganz danach aus. Bereits vor zwei Jahren gingen bestimmte Fähigkeiten von AlphaGo weit über die Leistungsfähigkeit des menschlichen Gehirnes hinaus. Anfang 2017 stellte dann die Carnegie Mellon University ihre Software Libratus vor, die kurze Zeit später die menschlichen Meister in Texas Hold'Em schlagen konnte. 

Diese Poker-Variante gut zu spielen, hat für Menschen mit Emotionen, Intuition und dem berühmten „Pokerface“ zu tun.
Libratus ist nicht intuitiv, dafür hat sich das Programm das Pokerspiel größtenteils selbst beigebracht. Und nach intensivem Training mit ca. 20 Millionen Spielzügen ist die Maschine dem Menschen auch in der Taktik weit überlegen. Schon werden Anwendungen etwa bei Verhandlungen zwischen Unternehmen denkbar, bei denen KI-Software schneller und effektiver zu Ergebnissen kommen kann als menschliche Intuition. Dabei imitiert Libratus nicht wie Googles AlphaGo neuronales Lernen im menschlichen Gehirn, sondern verknüpft die Anwendung der Gesetze mathematischer Wahrscheinlichkeits- und Spieltheorie auf raffinierte Weise mit gewaltiger Rechner- und Speicherkraft.

Was halten Sie von dem Szenario, dass sich KI-Systeme eigenständig auf eine Weise weiter entwickeln könnten, wie sie für die IT-Ingenieure nicht mehr nachvollziehbar wäre?
Wir kennen die mathematisch-logischen Grundsätze, nach denen AlphaGo und Libratus lernen. Die Lern- und Entscheidungswege aber, die sie sich eigenständig errechnen, können wir persönlich nicht mehr nachvollziehen. Sie erarbeiten sich ihre Erfahrungen gewissermaßen selber. So gesehen entwickeln sie sich bereits eigenständig weiter und das ist wirklich neu.

Die Systeme erarbeiten sich ihre Erfahrungen gewissermaßen selber. So gesehen entwickeln sie sich bereits eigenständig weiter und das ist wirklich neu.
Klaus Mainzer
Klaus Mainzer (Foto: TUM/ Heddergott)

Klaus Mainzer

Experte für Komplexitätsforschung, Chaosforschung und Künstliche Intelligenz (KI) an der TU München

Wie steht es um Emotion und Intuition?
Die neuen Systeme können unsere Emotionen, Intuition oder unser Bewusstsein nicht nachahmen. Dafür überholen sie jetzt einfach unsere menschlichen Fähigkeiten. Es ist bereits absehbar, dass KI-Systeme ganze Arbeitsbereiche, die mit menschlicher Kognition zu tun haben, größtenteils übernehmen werden – wie etwa die Versicherungs- oder Anlageberatung oder die Diagnostik in Krankenhäusern. In manchen Fabriken in Asien leisten selbstlernende Algorithmen bereits den Bau von Smartphones oder die Programmierung anderer Maschinen. Es steht diesen neuen KI-Systemen eben eine gewaltige Speicherkapazität und Rechnerleistung zur Verfügung, über die das menschliche Gehirn einfach nicht verfügen kann.

„Precrime“ wird realistisch

Welche Anwendungen sind heute schon denkbar, die unser Selbstverständnis, als ein die technischen Systeme anleitender „Souverän“ zumindest in Frage stellen könnten?
Kennen Sie den Film Minority Report? Darin gibt es Mustererkennungssysteme, die es einer Art Gedankenpolizei möglich macht, Verbrechen zu verhindern, bevor sie tatsächlich stattfinden. Soweit sind wir natürlich noch nicht. Aber in den USA, auch in Städten wie Zürich oder München, werden erste Mustererkennungsverfahren für Predictive Policing oder Precriming angewendet: Algorithmen prüfen die wahrscheinliche Gefährdung von bestimmten Stadtteilen, und dann schickt die Polizei präventiv ihre Streifen dorthin. Man wird sehen, ob sich dieser Einsatz von Software bewähren wird. Aber auch jenseits erster Einzelbeispiele geht der Trend bereits in Richtung eines deutlich stärkeren Einsatzes von Predictive Analytics und Predictive Systems – durch Staaten und Unternehmen. Diesen Softwaresystemen wird dann das gerade entstehende Internet der Dinge massenhaft Big Data hinzuliefern. 

Lassen sich intelligente Softwaresysteme und die komplexen Großrechner, die diese enormen Datenmengen verarbeiten, technisch immer weiter entwickeln? Oder zeichnet sich eine prinzipielle Obergrenze ab?
Der Energieverbrauch der Rechner ist ein Problem, auch verlangsamt die derzeitige Architektur der Hardware noch die Rechenabläufe. Deshalb möchte man sogenannte neuromorphe Architekturen erschaffen. Damit sind Rechner gemeint, die nach dem Vorbild natürlicher Nervensysteme gebaut werden. Biologische Gehirne sind sehr energieeffizient. Im Gehirn sind die gleichen Zellen für Speicher- und für Rechenaufgaben verantwortlich. Man möchte also die Vorteile des Gehirns mit den Vorteilen unserer bisher geschaffenen Technologie zusammenschalten. Und man zielt natürlich auf weiteres exponentielles Wachstum von Rechner- und Speicherkapazität ab.

Mit Verlaub: Das klingt schon sehr nach Science-Fiction.
Ganz und gar nicht. Daran wird seit Jahren mit Erfolg geforscht. Mittlerweile lassen sich im Labor einzelne Moleküle auf Nanoebene ganz exakt hin und her schieben und dabei neu konfigurieren. Damit kann man prozessorähnliche Strukturen konstruieren. Ein solcher Computer würde anstatt auf der Basis von Siliziumchips auf der Basis von Molekülen und Enzymen arbeiten und könnte in seiner Rechenkapazität und organischen Struktur ständig weiter lernen und wachsen. In einem Quantencomputer würden sogar die einzelnen Atome zu Bits und Bytes verschaltet werden. Computer wie der bereits angekündigte „IBM Q“-Quantencomputer könnten bestimmte Berechnungen in einer Geschwindigkeit vornehmen, die die Leistung heutiger High Performance-Rechensysteme weit überschreitet. 

Hintergrund

Klaus Mainzer im Gespräch

Video abspielen
Klaus Mainzer
Klaus Mainzer ist Experte für Komplexitätsforschung, Chaosforschung und Künstliche Intelligenz (KI) an der Technischen Universität München. Der Gründungsdirektor des Munich Center for Technology in Society zeigt, wohin sich Superrechner und KI entwickeln.

Die Frage, wer zukünftig die leistungsfähigsten KI- und Großrechnersysteme einsetzen wird, gewinnt an politischer Bedeutung: Die USA und China, aber auch IT-Giganten wie Google und Amazon leisten sich hier einen Wettlauf.
Unter anderem forschen Unternehmen wie Cray, IBM, Fujitsu, Hitachi und Sunway in China an Großrechnern neuesten Typs oder an neuen KI-Systemen. Natürlich sind auch die Geheimdienste und das Militär an diesem Wettlauf beteiligt  Dabei geht es zum Beispiel darum, die gängigen Verschlüsselungs­technologien auszuhebeln. Innovative Algorithmen gepaart mit einer enormen Rechenleistung sollen die riesigen Zahlenmengen auch in ausgeklügeltsten Nachrichtenschlüsseln „knacken“.

Macht Ihnen die Rasanz dieser Entwicklungen nicht manchmal Sorgen?
In den Boomjahren vor 2008 hatten namhafte Banken innovative Algorithmen zur Risikoabschätzung offensichtlich als eine Art Gelddruckmaschine im eigenen Rechenkeller verstanden, als ein Perpetuum Mobile der Finanzmathematik – ohne die Risiken des Einsatzes dieser Algorithmen genau abgeschätzt zu haben. Wir konnten also im Verlaufe der Finanzkrise seit 2008 gut beobachten, welche Konsequenzen es haben kann, wenn gesellschaftliche Player mit der Anwendung neuer Algorithmen und Rechnertechnologie ein Eigeninteresse verfolgen, ohne die komplexen Wirkungen ihres Handels verstanden zu haben.

Wir Menschen müssen das Wissen, wie unsere Technologie prinzipiell funktioniert, behalten. Alles andere wäre sehr leichtfertig.
Klaus Mainzer
Klaus Mainzer (Foto: TUM/ Heddergott)

Klaus Mainzer

Wie kann man solchen Entwicklungen begegnen?
Das Beispiel lässt erahnen, wie wichtig staatlich finanzierte Grundlagenforschung von Algorithmen für die Gesellschaft noch werden wird. Deshalb plädiere ich ja so nachhaltig für die freie akademische Grundlagenforschung, die auch die Anwendungen der neuen Technologien mit im Blick behält. Denn wir Menschen müssen das Wissen, wie unsere Technologie prinzipiell funktioniert, behalten. Nur dann können wir auch die Grenzen von KI erkennen und von Big Data-Algorithmen generierte Korrelationen und Mustererkennungen korrekt bewerten. Alles andere könnte zu einem sehr leichtfertigen Einsatz der KI und der auf Algorithmen basierenden Hightech-Technologie führen.

Wie zum Beispiel als die Firma Tesla die Fähigkeiten ihres „intelligenten“ Autopilot-Systems im vergangenen Jahr zu optimistisch bewertete?
Ja. Was dazu führte, dass die Testfahrt eines selbstfahrenden Prototyps mit einem völlig unnötigen und für den Passagier leider tödlichen Unfall endete.