© JUNGE FREIHEIT Verlag GmbH & Co.  www.jungefreiheit.de  07/14 / 07. Februar 2014

Pankraz,
I. Asimov und der Roboter als Mörder

Bisher laufen die US-amerikanischen Drohnenangriffe auf führende Talibankämpfer in Pakistan oder im pakistanisch-afghanischen Grenzgebiet so ab: Man erfährt, daß ein identifizierter Taliban sich in die Öffentlichkeit wagt, etwa auf eine Hochzeitsgesellschaft seines Clans, und läßt eine Drohne auf das Haus oder den Dorfplatz jener Familienzusammenkunft los. Die Drohne vollzieht den Befehl, explodiert programmgemäß und zielgenau, der Feind ist vernichtet.

Das Verfahren hat seine Nachteile, verursacht peinliche Kollateralschäden. Denn die ganze übrige Hochzeitsgesellschaft fliegt dabei in der Regel mit in die Luft. Das soll sich demnächst ändern, die einschlägigen Forschungsarbeiten sind dem Vernehmen nach bereits weit fortgeschritten. Man will die Drohne derart mit Daten ausrüsten, daß sie gewissermaßen selbst entscheiden kann, ob und wann sie ihre tödliche Ladung auf den Kämpfer niedergehen läßt. Zur künstlichen Intelligenz tritt also eine „künstliche Moral“; der Roboter selbst wird zur moralischen Instanz.

Ein alter Alptraum der Robotik und der zugehörigen Science-fiction-Literatur erfüllt sich, die Ahnung nämlich, daß die Roboter uns eines Tages nicht nur harte oder eklige Arbeiten und niedrige Strategie-Entscheidungen abnehmen könnten, sondern die Entscheidungsgewalt überhaupt, die Entscheidung über Gut oder Böse, Leben oder Tod, Gnade oder Erbarmungslosigkeit. Daß der Mensch mithin seine führende Rolle auf der Erde eines Tages im Zeichen des technischen Fortschritts freiwillig abgibt, und zwar an Gestalten, die er selber geschaffen und ausgestattet hat.

Schon Mary Shelley, die Schöpferin des 1818 erschienenen Romans „Frankenstein“, war ganz von diesem Alptraum erfüllt. Ihr „Monster“, der von dem genialen jungen Schweizer Studenten Viktor Frankenstein erschaffene künstliche Mensch, ist in seinem Inneren ein Mensch wie jeder andere: feinfühlig und leicht zu beleidigen, rachsüchtig und geltungssüchtig. Er nimmt Frankenstein übel, daß der ihn äußerlich so erschreckend häßlich gestaltet und daß er ihm keine Frau beigegeben hat. Es kommt zu einem wüsten Endkampf zwischen den beiden in eisiger Polarnacht, und Frankenstein unterliegt.

Isaac Asimov, der Kollege Shelleys im zwanzigsten Jahrhundert, litt unter der Vorstellung eines Roboters als Herrn über Leben und Tod nicht weniger als sie. So formulierte er im Jahr 1942 „die drei Gesetze der Robotik“. Erstens: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. Zweitens: Ein Roboter muß den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz. Drittens: Ein Roboter muß seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.

Asimov ging noch wie selbstverständlich davon aus, daß Roboter stets so konstruiert werden müßten, daß sie implizit den drei Gesetzen gehorchten. Er sprach von „Positronengehirnen“, die gar keine Wahl hätten, explizit oder gar eigenmächtig zu entscheiden. Sie reagieren zwangsweise, nach dem Binärsystem: 0 = Nicht ausführen; 1 = Ausführen. Dadurch ist sichergestellt, daß ein Roboter nicht zu eigenem Bewußtsein gelangt, was ein unüberschaubares Chaos und unkalkulierbare Folgen für Mensch und Maschine bewirken könnte.

Armer Asimov! Die Entscheidung der US-Regierung, eine „moralische“ Drohne zu konstruieren, einen mit Algorithmen vollgestopften, unentwegt „lernenden“ Roboter, der von sich aus, also ohne aktuellen Einsatzbefehl, über Tod oder Leben des Taliban befindet, läuft genau darauf hinaus, das erste (und ausschlaggebende) der drei Robotikgesetze zu kippen. Über die Konsequenzen einer solchen Entscheidung scheint man sich gar keine Gedanken gemacht zu haben; sie liegt ja „voll im Trend“, ist formal lediglich eine kleine Erweiterung des in der Big-Data-Branche Üblichen.

Dort bastelt man bekanntlich schon längst an „decision support systems“, deren Benutzer nicht mehr selber entscheiden, sondern ihr Problem einfach in den Computer des Roboters einspeisen, welcher ihnen dann außer Daten die Entscheidung gleich mitliefert, etwa beim Kauf einer optimal funktionierenden Zahnbürste. Der Unterschied zwischen Zahnbürstenkauf und Talibanvernichtung mittels Drohne ist in dieser Perspektive lediglich ein rein quantitativ-zeitlicher: Die Drohne „entscheidet“ nicht nur über den Tod des Taliban, sondern auch über Ort und Zeit seines Todes.

Vom moralischen Standpunkt aus betrachtet handelt es sich indessen um nichts weiter als um Mord, ein Umbringen von Menschen ohne Recht und Gesetz, Prozeß und Urteil, in einem unerklärten Krieg, der nicht zuletzt frontal gegen das Völkerrecht verstößt, um ein schweres Verbrechen also jenseits jeglichen Anstands. Und natürlich ist nicht die Roboterdrohne der Mörder, sondern der, der sie programmiert. Denn wie viele Daten und Algorithmen sie auch immer abgreifen mag, sie bleibt eine bloße Maschine, die einzig dem Mechanismus von Null oder Eins gehorcht, genau wie Asimov es beschrieben hat.

Das unterscheidet sie letztlich fundamental von Frankensteins Monster, das in der Schilderung von Mary Shelley ein wirklicher Mensch ist, voll von Gefühlen, Empfindungen, dunklen Wünschen, gräßlichen Träumen. Der angeblich „moralische“ Roboter seinerseits bleibt in jeder nur vorstellbaren Position kühl bis ans Herz hinan, weil er eben gar keines hat. Er ist im Gegensatz zu Frankensteins Monster nicht wirklich erschaffen, sondern nur konstruiert. Deshalb kann er auch nicht sterben, nur zu bloßem Techno-Müll werden.

Frankensteins Monster hingegen kann sehr wohl sterben. Es begeht Selbstmord, verbrennt sich in Nordpolnähe auf einem Haufen alter Schiffsplanken. Mary Shelley, die Autorin des Romans, weiß es freilich nicht genau, sie war, wie sie zugibt, nicht selbst dabei, kriegt es von einem alten Kapitän erzählt. Frankensteins Monster – nichts als Seemannsgarn.

Versenden
  Ausdrucken Probeabo bestellen