Die »Consumer Electronics Show« in Las Vegas rückte der Welt soeben einmal mehr ins Bewusstsein, wie leistungsfähig computergestützte Systeme inzwischen geworden sind. In diesem Jahr machen Lösungen auf Basis des »Machine Learning« besonders von sich reden. Da man heute in einem Smartphone mobil über die Rechenleistung verfügen kann, die vor 30 Jahren noch Supercomputern vorbehalten war, scheint nichts mehr unmöglich.
Schon vor Jahren nahm Deep Blue dem Menschen die Schachkrone. Unterdessen besiegte AlphaGo die besten Go-Spieler der Welt. Der Künstlichen Intelligenz scheint die Zukunft zu gehören. Wann, fragt sich mancher, werden uns die Maschinen auf breiter Front überflügeln? Darf man es so weit kommen lassen? Oder ist es gar nicht so, dass Maschinen wirklich denken können?
wissenschaft Tatsächlich ist die Wissenschaft vom Begriff der Künstlichen Intelligenz längst abgerückt. So beeindruckend die Leistungen von Deep Blue oder AlphaGo auch erscheinen mögen, um Intelligenz handelt es sich nicht, sondern um Mustererkennung, gepaart mit Regelwerken und der Möglichkeit, sehr viele Optionen in kurzer Zeit durchprobieren und bewerten zu können. Dabei existieren diese Systeme nur in der Welt des Problems, das sie lösen sollen.
Nehmen wir als Beispiel ein Schachprogramm. Dessen Welt besteht aus acht mal acht Feldern, zwei Sets von Figuren und einem Regelwerk, wie sich diese Figuren bewegen dürfen und welche Bewertung eine bestimmte Stellung dieser Figuren hat. Soll das Programm den besten nächsten Zug ermitteln, probiert es alle möglichen Züge, ermittelt den Wert der resultierenden Stellung und wiederholt das Ganze für sich und den Gegner für so viele Züge im Voraus, wie es sinnvoll und möglich ist. Dann entscheidet es sich für den Zug mit den besten Siegaussichten. Das Spiel eines solchen Programms mag uns kreativ erscheinen. Tatsächlich handelt es sich nur um mathematische Folgerichtigkeit.
Die meisten lernfähigen Systeme bestehen heute aus neuronalen Netzwerken. Deren Funktion ist angelehnt an die der Neuronen und Synapsen im menschlichen Gehirn. Die Unterschiede sind jedoch gravierend. Während im Gehirn Milliarden von Neuronen gleichzeitig feuern, erfolgt in Programmen die Verarbeitung sequenziell. Während Zeit in der Signalverarbeitung im Gehirn eine fundamentale Rolle spielt, haben neuronale Netzwerke keinen Begriff von Zeit. Und schließlich erzeugen solche Netzwerke bei gleicher Eingabe die gleiche Ausgabe, wohingegen unser Gehirn ein unscharfes System ist, das auf »gleiche« Reize unterschiedlich reagieren kann.
talmud In naher Zukunft dürfte es kaum geschehen, dass Computer an die Leistungsfähigkeit in der Parallelverarbeitung und an die Funktionsweise des menschlichen Gehirns heranreichen. Nehmen wir aber dennoch an, dass es geschieht. Denn dann wird die Frage aus weltanschaulicher Sicht interessant. Der Talmud (Sanhedrin 65b) bescheinigt dem Menschen die Fähigkeit, ganze Welten zu erschaffen, inklusive Leben.
Der Maharscha, Rabbi Schmuel Eideles, schränkt ein, dass diese Schöpfungen jedoch über keine Seele verfügen. Während ein Atheist also annehmen mag, dass die rein quantitativen Voraussetzungen in eine neue Qualität, nämlich die einer sich selbst bewussten, denkenden Maschine, umschlagen können, müsste man dies aus jüdischer Sicht verneinen. Dies aber wäre die Voraussetzung für freien Willen. Und den wiederum würde es brauchen, um die Herrschaft über die eigenen Schöpfer überhaupt anzustreben. Können wir also Entwarnung geben? Keineswegs. Die Gefahr liegt lediglich woanders.
Obwohl die Computersysteme nicht intelligent, es auch lange und womöglich nie sein werden, übertragen wir ihnen mehr und mehr Aufgaben, die intelligente, ja beseelte Entscheidungen erfordern. Auch hier zeigt ein Beispiel am ehesten, worum es geht.
unfall Triage-Probleme gehören zu den schwierigsten ethischen Fragestellungen: Wen soll man retten, wenn begrenzte Möglichkeiten die Rettung von Einzelnen nur auf Kosten anderer erlauben? Nehmen wir an, Sie werden Zeuge eines tragischen Unfalls: Eine Frau mit Kleinkind und ein Toragelehrter fallen von der Reling eines Schiffes ins Meer. Sie können nur einem Menschen helfen, aber wem?
Mit genau solchen Fragen müssen sich die Entwickler der Software für selbstfahrende Fahrzeuge auseinandersetzen. Kommt es nämlich auf der Straße zu einer Gefahrensituation, muss das Fahrzeug unmittelbar selbst entscheiden, was zu tun ist. Wenn ein Bus voller Schulkinder vor dem Absturz in eine Schlucht bewahrt werden kann, indem mein eigenes Fahrzeug ausweicht und abstürzt, ist das dann die richtige Entscheidung? Kann ein Leben wichtiger sein als ein anderes?
Der Talmud behandelt dieses schwierige Problem (Horayot 13a), und ich kann Ihnen versichern, dies ist keine erheiternde Lektüre. Was den hypothetischen Unfall auf See angeht, lautet die Priorisierung: der Gelehrte, die Frau und dann erst das Kind. Hätten Sie anders entschieden? Dumm nur, wenn Sie gar nicht mehr entscheiden dürfen, sondern nur noch der Gott aus der Maschine.
Der Autor ist Software-Architekt, Publizist und Schriftsteller.