Wenn Computer an Katzen scheitern

Schach ist leichter als eine Katze zu erkennen. Neuronale Netze und die Forschung an Künstlicher Intelligenz haben uns viel über menschliche Intelligenz gelehrt.

Neuronale Netze gab es noch nicht: Schachweltmeister Garry Kasparow spielt 1997 gegen Schachcomputer Deep Blue
Schachweltmeister Garry Kasparow spielt 1997 zum zweiten Mal gegen Schachcomputer Deep Blue. Im Jahr zuvor hatte der Computer noch verloren. Deep Blue gilt als Meilenstein für die Entwicklung Künstlicher Intelligenz. © Getty Images
×

Auf den Punkt gebracht

  • Was ist Intelligenz? Unser Verständnis von Intelligenz hat sich unter anderem durch die Forschung an Künstlicher Intelligenz geändert.
  • Wie lernen Maschinen? Mittels Neuronaler Netze beherrschen Maschinen mittlerweile auch komplexe Vorgänge – zum Beispiel die Gesichtserkennung.
  • Wie funktionieren Neuronale Netze? Das ist sowohl spannend wie unheimlich: Wir wissen nicht, was im Inneren diese Netzwerke vorgeht oder wie sie lernen.
  • Sollten wir uns fürchten? Ja und Nein. Maschinen werden sich vorerst nicht verselbständigen. Aber es ist realistisch, dass sie Menschen mehr und mehr ersetzen.

Was ist beeindruckender: Den amtierenden Schachweltmeister zu schlagen oder die eigene Großmutter zu erkennen? Die Antwort scheint auf der Hand zu liegen, aber sie ist komplexer als es zunächst scheint. Für eine Künstliche Intelligenz (KI) war es lange Zeit einfacher, in Schach zu gewinnen als ein Gesicht zu erkennen.

Ein Schachcomputer ist ein relativ einfacher Mechanismus, der in sehr kurzer Zeit hunderttausende Züge ausprobieren und analysieren kann; weshalb er dem Menschen sehr schnell überlegen ist. Die Leistung der Gesichtserkennung ist umgekehrt eine sehr komplexe, die einen klassischen Schachcomputer komplett überfordern wurde. Dazu brauchte es erst die Entwicklung des sogenannten Tiefen Lernens mit künstlichen Neuronalen Netzen, die einem Computer nun auch das ermöglichen.

Sehen ist nicht trivial

Dieses simple Beispiel zeigt bereits: Intelligenz zu definieren ist nicht einfach, und es gibt tatsächlich keine allgemein gültige und anerkannte Definition von Intelligenz. In der Forschung zur Künstlichen Intelligenz (KI) wurde Intelligenz zunächst als die kognitive Fähigkeit des Menschen betrachtet, Probleme zu lösen. Die Erkenntnis, dass das nicht ausgereicht hat, um menschlicher Intelligenz wirklich nahe zu kommen, hat letztendlich auch unser Verständnis von menschlicher Intelligenz gewandelt: Natürlich würde niemand die Fähigkeit, seine Großmutter zu erkennen, als Intelligenz bezeichnen, aber die Leistung, die dahintersteht, ist viel stärker in den Fokus gerückt.

Schwarzweiß Foto eines Hundes, der wie ein Metallkasten aussieht, und eines Golden Retriever. Zwischen beiden steht eine Futterschüssel. Das Foto wurde im Freien auf einer asphaltierten Fläche vor einem Gebäude aufgenommen.
Der Unterschied zwischen Künstlicher Intelligenz und nicht-künstlicher Intelligenz fasziniert, seit es Computer gibt: 1977 versucht die Redaktion der BBC herauszufinden, wie ein richtiger Hund auf einen Roboterhund reagiert. © Getty Images

Es gibt eine Anekdote aus den Siebzigern, dass ein Professor einem Informatik-Studenten als Sommerprojekt die Aufgabe gegeben hat, ein visuelles Bilderkennungsprogramm zu schreiben, um Objekte und Personen zu erkennen – er dachte fälschlicherweise, das sei trivial. Wir haben mittlerweile erkannt, wie komplex manche Vorgänge in unserem Gehirn sind, die wir zuvor vielleicht als selbstverständlich erachtet hätten.

Auch Maschinen machen Fehler

Was die menschliche Intelligenz also ausmacht, ist alles zusammen und noch mehr –  die umfassende Wahrnehmung, das Verstehen der Umgebung und das Zusammenführen mehrerer Quellen sowie die Möglichkeit, mit Emotion und Empathie auf einen anderen Menschen einzugehen und einen fortführenden Dialog zu führen.

An der Medizinischen Universität Wien beschäftigen wir uns sehr stark mit KI im medizinischen Bereich, und da kommt natürlich oft die Frage, ob die Maschine den Menschen bald ersetzen wird. Und da ist die Antwort immer: Nein, weil ein Arzt oder eine Ärztin genau diese Fähigkeiten menschlicher Intelligenz braucht, um einen Patienten medizinisch zu versorgen. Es reicht nicht der Befund – also etwa die Erkennung eines Tumors auf einem Röntgenbild –, sondern es braucht auch die Fähigkeit, dem Patienten zu erklären, was das jetzt für ihn heißt. Das kann eine KI nicht – und sie wird es noch sehr lange nicht können.

Das heißt nicht, dass es nicht große Fortschritte in der Forschung gibt: Bei der Bilderkennung, bei der sich Computer bislang eben sehr schwergetan haben, gibt es nun beeindruckende Erfolge. Eine KI kann einen Hautausschlag mittlerweile besser klassifizieren und diagnostizieren als jeder Dermatologe. Interessanterweise haben wir dennoch Probleme, dieser Diagnose zu trauen: Selbst wenn wir wissen, dass eine KI besser darin ist, ein bösartiges Melanom zu erkennen, haben wir trotzdem mehr Angst davor, dass sie einen Fehler machen könnte als dass ein menschlicher Arzt einen Fehler macht.

Zwei Schachspieler, der eine in einem Norwegerpulli und der andere im T-Shirt, sind jeweils über ein Schachspiel gebeugt.
Selbst Schach war mal schwer für Computer: Der internationale Schachmeister Jon Speelmann 1978 in einer Partie gegen 279 Sargon 2.5. Nach 40 Runden gab der Schachcomputer auf. © Getty Images

Ein paralleles Phänomen gibt es bei selbstfahrenden Autos: Wir diskutieren stundenlang, wie gefährlich es wäre, wenn ein Fußgänger nicht rechtzeitig erkannt wird und es zu einem Unfall kommt, aber wir haben nicht dieselben Diskussionen über die vielen Todesfälle, die wir jetzt schon im Straßenverkehr haben aufgrund falscher Reaktionen von Menschen – das sehen wir als gegeben an. Es wird immer eine gewisse Fehlerquelle geben, das müssen wir auch der KI zugestehen.

Künstliche Intelligenz war nicht immer intelligent

Fehlerquellen sind oft menschengemacht: Eine KI ist immer nur so gut, wie die Daten, mit denen wir sie füttern – wenn sie fehlerhafte oder unzureichende Daten bekommt, wird sie falsches lernen. Sie sind auch oft leicht manipulierbar. Ein Experiment an einem System, das Katzen- und Hundebilder unterscheiden kann, hat gezeigt, dass es bisweilen reicht, ein paar Pixel zu verändern, um dem System weiszumachen, dass ein Katzenbild einen Hund zeigt – obwohl es für das menschliche Auge einwandfrei als Katze identifizierbar ist.

KI hat einmal jemand spöttisch so definiert: Es ist alles, was Maschinen noch nicht können.

Kommunikation ist ein weiteres Gebiet, bei dem die Maschinen dem Menschen noch weit unterlegen sind: Siri und Alexa, die Sprachassistenten von Apple und Google, können keinen ordentlichen Dialog aufrechterhalten. Sie verstehen eine Abfrage, aber wenn man versucht, eine Unterhaltung zu führen, sieht man sofort, dass da keine echte Intelligenz dahintersteckt. Auch von jeglicher Kreativität sind Maschinen noch weit entfernt.

Auch das kann sich natürlich ändern. KI hat einmal jemand spöttisch so definiert: Es ist alles, was Maschinen noch nicht können. Wenn sie es dann können, gilt es als Mainstream-Informatik. Die größten Fortschritte bei der KI-Forschung in den vergangenen Jahren – eben etwa bei der Gesichts- und Bilderkennung – sind mit Hilfe der bereits erwähnten neuronalen Netze entstanden. Diese neuronalen Netze wurden in den Achtzigern noch gar nicht als Teil der KI betrachtet; sondern eher als die Spinnereien von ein paar Kognitionswissenschaftlern. Jetzt ist es umgekehrt: KI wird fast gleichgesetzt mit neuronalen Netzwerken, die regelhafte Problemlösung – siehe Schachcomputer ­– ist sehr stark in den Hintergrund gerückt. Jener Computer, der meisterhaft Go spielt, das komplexeste von Menschen entwickelte Brettspiel, basiert beispielsweise schon auf neuronalen Netzwerken.

Wie Neuronale Netze funktionieren

Das ist auch für unser Verständnis menschlicher Intelligenz von Relevanz, denn das Lernen neuronaler Netze ist inspiriert von der Funktionsweise des Gehirns. Die Idee ist bereits in den 1940ern entstanden, der wesentliche Aspekt ist, dass Verbindungen von Neuronen langfristig langsam adaptiert und geändert werden – das System lernt. So genannte „convolutional neural networks“ ähneln im Aufbau – zumindest grob – dem visuellen System eines hoch entwickelten Gehirns wie dem des Menschen. Zunächst werden Bildpunkte in kleine Eigenschaften zusammengefasst – etwa hell/dunkel –, im nächsten Schritt zu komplexeren Merkmalen, und so geht das weiter und weiter, bis sich im visuellen Kortex die Wahrnehmung eines Objekts formt.

×

Zahlen & Fakten

Neuronale Netze müssen unterscheiden lernen und das tun sie anhand von Bildern wie diesem, auf dem ein Hund und eine Katze einander gegenübersitzen und sich . anstarren.
Hund und Katze sind gar nicht so leicht zu unterscheiden © Getty Images

Hund? Katze?

Convolutional Neural Networks werden hauptsächlich zur Bild-, Sprach und Textverarbeitung eingesetzt und sind darin mittlerweile besser als jeder Mensch. Wie bringt man einem neuronalen Netzwerk aber bei, Hunde und Katzen zu unterscheiden? Das ist nicht so simpel: Es gibt verschiedenste Arten von Hunden und Katzen, die sich oft nicht sehr ähnlich sind. Und sie alle haben gemeinsame Merkmale, etwa vier Beine, eine Schnauze und einen Schwanz.

Die Bilder werden dazu in mehreren Schichten analysiert, die erste ist die Convolutional-Schicht: Hier werden zunächst bestimmte simple Merkmale, etwa Kanten oder Formen erkannt, mit jeder weiteren Ebene werden die Merkmale komplexer. In der darauf folgenden Pooling-Schicht werden alle überflüssigen Daten verworfen, was die Datenmenge verringert. Am Ende steht eine vollständig verknüpfte Schicht – das Objekt wird entweder als Katze oder Hund klassifiziert. Am Ende steht beim lernenden System die Feedback-Schleife: Es wird ihm mitgeteilt, dass der von ihm identifizierte Hund eigentlich eine übergewichtige Katze ist – das Netzwerk muss dann seine Analyse des Bildes dementsprechend anpassen.

Die „Convolutional Neural Networks“ hatten einen doppelten Nutzen: Nicht nur, dass wir die Bilderkennung nun massiv verbessert haben, wir haben auch ein besseres Verständnis davon, wie das Gehirn funktioniert. Davon, es als Ganzes zu verstehen, sind wir aber immer noch weit entfernt. Wie wir etwas nicht nur erkennen, sondern aus diesem Erkennen eine Schlussfolgerung ziehen, eine Handlung setzen, darüber reden – da fehlen uns noch sehr viele Puzzleteile. Wiederum sowohl im Verständnis des Gehirns als auch in der Möglichkeit, das für KI nachzubauen und zu implementieren.

Wir wissen nicht, wie Maschinen lernen

Computer sind aber dank neuronaler Netzwerke wie das Gehirn mittlerweile in der Lage, selbständig Dinge zu lernen, die wir ihnen nicht einprogrammiert haben. Das löst bei manchen Menschen Ängste aus, die bis zu einem gewissen Grad auch verständlich sind: Denn es stimmt, dass wir nicht voraussehen können, was und wie ein System gelernt hat – was sich im Inneren des Systems abspielt, bleibt oft eine Blackbox. Wir können das System validieren, indem wir es testen, aber wir können nicht erklären, warum es das kann und wie es das gelernt hat.

Diese Utopien, dass Roboter plötzlich uns Menschen ausbooten, das ist nach wie vor Science-Fiction.

Die gesamte Forschungsrichtung der „explainable AI“ versucht herauszufinden, wie diese Systeme lernen, um da wieder ein bisschen Licht hineinzubringen. Es erzeugt berechtigterweise Unbehagen, dass man das System nicht immer unter Kontrolle hat. Aber trotzdem: Diese Systeme können sich nicht selbständig machen. Diese Utopien, dass Roboter plötzlich uns Menschen ausbooten, das ist nach wie vor Science-Fiction.

Rationale und irrationale Ängste

Es ist also wichtig, bei KI irrationale und rationale Ängste zu unterscheiden. Als irrational würde ich die Angst einstufen, dass Maschinen ein Eigeninteresse oder gar so etwas wie Bewusstsein entwickeln könnten: Keines dieser Systeme hat in irgendeiner philosophisch oder psychologisch rechtfertigbaren Argumentation eine Intention hinter dem, was es tut. Sie sind relativ mechanistische Ausführer. Es kommt natürlich vor, dass diese Systeme etwas tun, das wir nicht verstehen; und manchmal kann das auch gefährlich sein. Aber ein Roboter kann keinen eigenen Willen entwickeln.

Es gab vor ein paar Jahren die Geschichte, dass sich ein Security-Roboter in einer Shoppingmall in Washington DC in einem Pool ertränkt hätte – ein klassisches Beispiel dafür, dass wir in ein simples Fehlverhalten menschliche Verhaltensmuster hineinlesen. Er hatte natürlich nicht die Intention, sich umzubringen. Diese Tendenz des Menschen, menschliche Eigenschaften zu sehen, wo sie gar nicht sind, wird in der KI-Forschung auch aktiv genutzt: Man kann nach außen sehr leicht den Anschein erzeugen, dass ein Roboter Gefühle hätte, weil er traurig schaut. Aber auch das ist mechanistisch: Ich baue den Zustand der Traurigkeit ein, der verknüpft ist mit einem bestimmten Gesichtsausdruck.

Was Neuronale Netze mit Bewusstsein zu tun haben

Ist es komplett ausgeschlossen, dass sich in einer Blackbox eines neuronalen Netzes irgendwann so etwas wie Bewusstsein bildet, ohne dass wir das überhaupt bemerken? Nein, aber in unserer Lebenszeit ist es doch sehr unwahrscheinlich. Das „Human Brain Project“, das versucht, das menschliche Gehirn zu simulieren, hatte anfangs auch die – vielleicht etwas naive – Hoffnung, dass sich ein neuronales Netz wie das Gehirn verhalten wird, wenn es nur groß genug ist – und damit irgendwann auch Bewusstsein zeigt. Aber es zeigt sich mittlerweile, dass wir selbst bei unserem Gehirn weit davon entfernt sind, zu verstehen, wie Bewusstsein zustande kommt – und noch viel weiter davon, es bei Maschinen zu erschaffen.

Sorgen machen sollten uns vielmehr Entwicklungen, die zeitlich viel näher sind: Es ist eine sehr rationale Angst, dass Maschinen den Menschen in manchen Bereichen ersetzen könnten. Es gibt berechtigte Besorgnis, dass selbst manche Anbieter im Gesundheitsbereich sich aus Kostengründen überlegen, das menschliches Personal einzusparen. So wie viele Firmen bieten keinen Kundenservice mehr anbieten, sondern automatisierte Callcenter haben. Dass man sagt, bei leichten Erkrankungen muss man keinen Arzt mehr zu Rate ziehen. Dieser Entwicklung sollten wir entgegentreten anstatt uns vor Robotern zu fürchten, die sich selbständig machen.

(aufgezeichnet von Thomas Trescher)

×

Conclusio

Die Forschung an KI hat uns viel über unser Verständnis von menschlicher Intelligenz gelehrt: Was wir als trivial erachtet haben – etwa das Erkennen von Gesichtern – stellte sich als kompliziert heraus. Nun aber haben Maschinen gelernt, sich selbst Dinge beizubringen, ohne dass wir wissen, wie sie das tun. Das löst bei vielen Menschen Unbehagen aus, aber die Angst, dass sich Roboter deshalb selbstständig machen könnten, ist trotzdem unberechtigt – sie bleiben mechanistische Ausführer.