Intelligent und smart waren lange Zeit Attribute, die Menschen vorbehalten waren. Heute werden sie geradezu inflationär auch für nicht­menschliche Dinge verwendet.

Das betrifft Objekte, die wir mit uns herumtragen wie das Smartphone oder die Smart Watch. Es betrifft Umgebungen, in denen wir uns aufhalten, sei es das Smart Home, die Smart City oder die Smart Country. Und es betrifft Dinge, die in unsere Umgebung eingebettet sind, von kleinen Komponenten wie intelligenten Thermostaten bis hin zu größeren Systemen wie der intelligenten Straßenbeleuchtung.

Durch die Fortschritte im Bereich der Künstlichen Intelligenz (KI) scheint außerdem eine ganzes Bündel neuer intelligenter Anwendungen in den Startlöchern zu sein.

Die Intelligenz von Maschinen ist wie ein Mantra unserer Zeit, das uns an allen Ecken und Enden eingeflüstert wird. Doch nur dadurch, dass etwas immer wieder wiederholt wird, ist es noch nicht wahr. Wie steht es also wirklich um die Intelligenz von Maschinen? Und was heißt intelligent in diesem Zusammenhang überhaupt?

Smartifizierung

Ein Grund für die inflationäre Verbreitung der Attribute smart und intelligent ist schlichtweg, dass sie einen festen Platz in der Marketing-Sprache der IT-Industrie eingenommen haben. Sie sind als Bezeichner für eine neue Generation von Produkten gesetzt, die mit Hilfe integrierter Computer neue Funktionalitäten bieten. In diesem Sinne bedeutet der Bezeichner smart zunächst einmal nicht mehr und nicht weniger, als dass ein Ding einen Computer enthält.

Das Upgrade von Produkten zu smarten Produkten - die Smartifizierung - ist dabei ein simpler, regelrecht formelhafter Prozess. Ganz grob zusammengefasst sieht das Rezept folgendermaßen aus: Man nehme ein herkömmliches Produkt, baue einen Computer und Sensoren ein und schreibe Software, die bestimmte Input-Daten verarbeitet und daraus einen Output generiert, der den Usern einen Mehrwert bietet.

Rüstet man zum Beispiel einen Kugel­schreiber mit der entsprechenden Hard- und Software aus, könnte der Input die Schreib­bewegung sein und der Output eine digitale Form des Geschriebenen. Man ergänze eine Prise Konnektivität, damit das Geschriebene in einer App landen kann, bette das Ganze in ein neues service­orientiertes Geschäftsmodell ein - der Kunde bekommt automatisch neue Minen nachgeliefert; die Abrechnung berechnet sich aus den geschriebenen Wörtern - und fertig ist ein smartes und intelligentes Produkt.

Bereits bei diesem einfachen Beispiel wird klar, dass der Kugelschreiber kaum über Intelligenz im Sinne besonderer geistiger Fähigkeiten verfügt. Das Attribut smart lässt sich hier als einfache Werbesprache abtun. Es sagt nichts über die eigentliche Beschaffenheit des Produkts aus und zielt lediglich darauf ab, es durch eine überhöhte Darstellung attraktiver zu machen.

Komplexer ist die Situation in Hinblick auf Anwendungen der Künstlichen Intelligenz. Sie beschwören in der öffentlichen Diskussion immer wieder einen Vergleich zwischen Mensch und Maschine herauf, der auch aus Teilen der Wissenschaft mitgetragen wird. Dieser Vergleich ist an sich nicht neu, sondern lässt sich bis zu den Ursprüngen der Disziplin zurückverfolgen.

Künstliche Intelligenz < Intelligenz

Die Herkunft des Begriffs Künstliche Intelligenz geht auf das Dartmouth Summer Research Project on Artificial Intelligence aus dem Jahr 1956 zurück. Die von dem Mathematiker John McCarthy organisierte Konferenz legte den Grundstein für die neue Disziplin. Die Vorhabens­beschreibung der Konferenz fasst die zentrale Grundannahme zusammen, dass Maschinen im Grunde genommen jede Form von Intelligenz simulieren können:

The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.1

Und genau hier beginnen die Probleme. Denn Intelligenz ist ein komplexes Konstrukt, das traditionell als Gegenstand der Psychologie für die Untersuchung bestimmter Merkmale des Menschen verwendet wird. Bis heute gibt es keine allgemein akzeptierte Definition, sondern vielmehr eine Reihe ganz unterschiedlicher Theorien.

Die Vorstellung maschineller Intelligenz stützt sich insofern auf rein mechanistische Auslegungen. Sie geht im Grunde genommen davon aus, dass sich ein menschliches Gehirn elektronisch nachbilden lässt. Künstliche Intelligenz legt damit eine eingeschränkte Definition von Intelligenz zugrunde und blendet menschliche Faktoren vollkommen aus. Sie berücksichtigt keine Form der Sozialisation, keine körperlichen Erfahrungen und keine Interaktionen mit anderen Menschen.

Deshalb ist es problematisch, künstliche Intelligenz mit menschlicher Intelligenz zu vergleichen, da eben ein Menschenbild zugrunde liegt, das alles menschliche ignoriert. Einige KI-Forscher wie Joseph Weizenbaum sind mit der eigenen Disziplin deshalb hart ins Gericht gegangen:

Es ist erstaunlich, dass die Idee der Künstlichen Intelligenz überhaupt irgendwo ernst genommen wird. Aber in der ganzen Welt wird sie ernst genommen. Die Idee hat sich verkauft, obwohl sehr, sehr wenig dahintersteckt.2

Andere wie der Robotik-Professor Hans Moravec nutzen dieses reduzierte Menschenbild jedoch, um die Menschheit als Erschaffer einer neuen Maschinenspezies zu sehen und wilden Unsterblich­keits­fantasien nachzujagen, in denen der Mensch durch den Upload des Gehirns seine körperliche Hülle verlassen könne3.

Solche Gedanken­spiele sind faszinierend, keine Frage. Sie waren bislang allerdings dem Bereich der Mythen und der Science Fiction zugeordnet. Frühe Vorstellungen von menschlich geschaffenen künstlichen Wesen finden wir bereits im Pygmalion-Mythos und der Golem-Legende. Mit der Begründung des Forschungs­felds der Künstlichen Intelligenz wurden solche Fantasien auch für Teile der Wissenschaft salonfähig.

Starke und schwache KI

Mit der Bezugnahme auf Intelligenz hat sich die KI gewissermaßen ein termino­logisches Grundproblem eingehandelt. Ein Versuch, es in der Praxis zu lösen, ist die Unterscheidung zwischen starker und schwacher KI. Starke KI verfolgt das Ziel, eine menschen­gleiche, wenn nicht gar überlegene generelle Maschinen­intelligenz zu schaffen. Die schwache KI erhebt diesen Anspruch nicht. Sie agiert boden­ständiger und widmet sich konkreten Anwendungs­feldern.

Fakt ist: Es gibt bisher keine starke KI. Und es ist unklar, ob es je eine geben kann. Gedankenexperimente wie das Chinesische Zimmmer, das der Philosoph John Searle 1980 in dem Aufsatz Minds, Brains and Programs entwickelte, versuchen zu widerlegen, dass ein Computer überhaupt Intentionalität entwickeln kann.

Fakt ist aber auch, dass die technischen Verfahren unter dem Dach der Künstlichen Intelligenz seit Jahrzehnten kontinuierlich weiter­entwickelt werden. Auch wenn keines dieser mathematisch-statistisch geprägten Verfahren den Begriff Intelligenz verdient, ermöglichen sie eine Reihe neuer viel­versprechender Anwendungen - vor allem durch die Verfügbarkeit von Massendaten.

Doch auch wenn es um konkrete Anwendungen geht, wird immer wieder der Vergleich zwischen Mensch und Maschine herangezogen. Das Ergebnis sind Schlagzeilen wie:

Künstliche Intelligenz in der Versicherung: Chatbot statt Berater - Herr Kaiser hat ausgedient4.

Schuld an diesem Dilemma ist der Begriff der Intelligenz, der eben auch für konkrete Anwendungen mit einer Reihe von Assoziationen einhergeht und falsche Erwartungen weckt. Diese falsche Erwartungs­haltung ist vielleicht auch ein Grund dafür, dass die Geschichte der Künstlichen Intelligenz so stark durch überschwenglichen Enthusiasmus und bittere Enttäuschung geprägt ist. Nach Phasen übertriebener Erwartungen folgten immer wieder Phasen der Enttäuschung, für die sogar ein eigener Begriff etabliert ist: KI-Winter5.

Der erste KI-Winter reichte von Anfang der 1970er bis Anfang der 1980er Jahre. Der zweite KI-Winter wird in der Zeit von 1987 bis 1993 gesehen. Während der zwei historischen KI-Winter verebbten Fördergelder, und eine Welle der Skepsis und Ernüchterung schlug dem Feld entgegen. Auslöser der KI-Winter waren jeweils neue Erkenntnisse zu den jeweils gehypten Verfahren, die klare Grenzen aufzeigten - und vor allem die Illusion einer generellen maschinellen Intelligenz zerplatzen ließen.

Werkzeuge statt Wesen

Aktuell befindet sich das Feld der Künstlichen Intelligenz wieder einmal im Hochsommer, auch wenn Herausforderungen wie vorurteils­behaftete Daten­grundlagen und intransparente Entscheidungs­prozesse der auf Massendaten operierenden Verfahren stärker in den Fokus rücken. Dass nach dem jetzigen Höhenflug wieder eine Phase der Enttäuschung folgt, ist alles andere als abwegig.

Um einen möglichen Fall abzufedern, sollte eine geerdete Erwartungs­haltung an die Stelle überhöhter Verprechen treten. KI-Anwendungen sollten als Werkzeuge verstanden werden und nicht als Wesen. Diese Werkzeuge werden unsere Arbeitswelt und unseren Alltag verändern. Sie sind aber eben nicht intelligent. Und sie werden Menschen ebensowenig überflüssig machen wie einst der Webstuhl.


  1. http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf 

  2. [Weizenbaum, Joseph ; Wendt, Gunna: Wo sind sie, die Inseln der Vernunft im Cyberstrom? : Auswege aus der programmierten Gesellschaft. Stuttgart: Herder, 2006.] 

  3. [Moravec, Hans: Mind Children : The Future of Robot and Human Intelligence. Cambridge, Massachusetts: Harvard University Press, 1988.] 

  4. https://www.manager-magazin.de/unternehmen/tech/kuenstliche-intelligenz-in-der-versicherung-herr-kaiser-hat-ausgedient-a-1876027d-1817-4cfc-b40a-44a4bd6962b7 

  5. https://de.wikipedia.org/wiki/KI-Winter