Künstliche Intelligenz – die gepriesene Schimäre

Der Begriff Künstliche Intelligenz – kurz KI – ist inzwischen allgegenwärtig. Ist sie auf dem Weg zur geostrategischen Vor- und Übermacht?

Lesezeit: 11 Min.

03.02.2020

Wenn für Fehler die e-Person haften soll

Von Peter Niggl

Der Begriff Künstliche Intelligenz – kurz KI – ist inzwischen allgegenwärtig. Besonders im zurückliegenden Jahr schwoll die Flut der Veröffentlichungen exorbitant an. Die Pressemappen quellen über mit (vermeintlichen, vorgeblichen oder realen) Erfolgsmeldungen. Wahre Wunderkräfte werden ihr attestiert. Wenn man den Werbetextern Glauben schenken darf, gehen wir rosigen Zeiten entgegen. Die KI werde uns und vor allem den Unternehmen auf fast allen Gebieten goldenen Zeiten entgegenführen. Und das, obwohl, wie die CDU-nahe Konrad-Adenauer-Stiftung im September vergangenen Jahres in einer Schrift konstatierte, es „bislang keine wissenschaftlich anerkannte Definition für Künstliche Intelligenz“ gibt. Unter diesen Vorzeichen muss davon ausgegangen werden, dass sich oftmals recht diffuse Vorstellungen von KI in den Gehirnen der natürlichen Intelligenzen umtreiben.

Auf dem Weg zur geostrategischen Vor- und Übermacht?

Im allgemeinen Freudentaumel über die scheinbar unbegrenzten Möglichkeiten dieser neuen Steuerungstechnik kommen nachdenkliche Stimmen fast etwas zu kurz. Mahnende Worte zum neuen IT-Hype aber sollten nicht überhört werden. „Nur wenn die KI-Entwicklung sich auch mit den ethischen, moralischen und normativen Folgen ihres Handelns befasst, wird Vertrauen in der Gesellschaft wachsen“, gab die VolkswagenStiftung im Frühsommer dieses Jahres zu bedenken. Derzeit überwiegen wohl eher die schwärmerischen Utopien, die sich, wie am 2. November im Internetportal von „Welt“, in Superlativen ergehen: „KI macht es buchstäblich möglich, Wissen, also Macht, zu produzieren. Wer auf diesem Gebiet innovativ führt, erringt wirtschaftliche, politische und schließlich geostrategische Vor- und Übermacht.“

Stanley Kubrick und der mordende Computer

Abgesehen davon, dass inzwischen der Begriff KI geradezu inflationär für jede Weiterentwicklung computergesteuerter Technik verwendet wird, schießen an anderer Stelle Illusionen von nahezu wundersamen und fast magischen Kräften ins Kraut. Schafft sich der Mensch sein technisch perfektes Ebenbild? Skepsis scheint angebracht.

Schon vor über einem halben Jahrhundert hat sich der US-amerikanische Regisseur Stanley Kubrick der Kehrseite von KI angenommen. In seinem Science-Fiction-Streifen „2001: A Space Odyssey“ gerät der Computer HAL 9000 an Bord eines Raumschiffes auf einer Mission zum Jupiter außer Kontrolle. Nach einigen Fehlern, die der Denkmaschine unterlaufen, beschließt die Besatzung, das Gerät abzuschalten. HAL wehrt sich gegen seinen Exitus und beginnt nacheinander die Crew-Mitglieder zu eliminieren. Bis es dem letzten Verbliebenen gelingt, im begehbaren Computerhirn die Stecker der Synapsen zu ziehen. In der dadurch erzeugten Degenerierung singt HAL zum Schluss ein Kinderlied, das er in seiner „Erziehungsphase“ gelernt hatte. Ein Supercomputer mit einer sehr menschlich angehauchten schwarzen Seele.

Der Sieg von AlphaGo als Durchbruch

Kubrick beleuchtet in seinem Film durchaus richtungsweisend das Thema KI von beiden Seiten der Medaille. Die Frage ist ganz einfach: Was ist, wenn die menschliche Schöpfung aus dem Ruder läuft? Die Antwort darauf ist diffizil; für Sicherheitsverantwortliche allerdings höchst brisant. Menschliche Individuen werden durch Ethik, Moral und nicht zuletzt das Strafgesetzbuch in einem gewissen gesellschaftsfähigen Rahmen gehalten. Was aber ist, wenn der KI wie eingangs zitiert, die Aufgabe zugedacht wird, für eine „geostrategische Vor- und Übermacht“ zu sorgen? Mit programmierter Rücksichtslosigkeit?

Der Sieg der Software AlphaGo im Frühjahr 2016 über den als stärksten Go-Spieler der Welt geltenden Südkoreaner Lee Sedol wurde vielerorts als besonderer qualitativer Sprung in der KI-Entwicklung gefeiert. Bei etwas nüchterner Betrachtung steht hinter solchen Programmen nur eine komplexe Anwendung des „if-then-else“-Befehls, den man schon in der einfachen Computersprache Basic aus den Zeiten des Computer-Oldtimers Commodore 64 kennt.

Wenn der Computer über Leben und Tod entscheidet

Der größte technisch-wissenschaftliche Verein Deutschlands, der VDI Verein Deutscher Ingenieure, teilt die Euphorie um die KI nicht. „Künstliche Intelligenz hat keine Moral und löst keine ethischen Konflikte. Künstliche Intelligenz kann Regeln anwenden, ändert sich aber nicht“, heißt in einem VDI-Aufsatz vom Mai dieses Jahrs. Der Autor setzt sich darin mit dem derzeit am häufigsten vorgebrachten KI-Exempel, dem automatisierten Fahren auseinander. Er zeigt die Schwierigkeitsgrade auf, die auf dem Weg zum autonomen Fahren gemeistert werden müssen. „Vollends schwierig, wenn nicht ausweglos sind Situationen“, so der Autor, „in denen ein Fahrzeug abwägen müsste, ob es auf ein kleines Hindernis oder auf ein großes Hindernis aufprallen möchte. Was, wenn das große Hindernis ein Brückenpfeiler ist – was, wenn das kleine Hindernis kein Hase oder Waschbär, sondern ein Radfahrer, Fußgänger oder Kinderwagen ist?“

Der mit KI ausgestattete Computer müsste nun entscheiden, ob er das Leben des Fahrgastes oder des Radfahrers, Fußgängers oder Kindes aufs Spiel setzt. Schon hier würde sich die Frage stellen, werden den KI-Rechnern so menschliche Attribute wie Skrupel in die Programmierwiege gelegt? Wie sieht der Algorithmus dafür aus? Denn in einem solchen Fall würde zwangsläufig eine weitere Komponente ins vertrackte Spiel kommen: Wer haftet bei künstlich intelligenten Entscheidungen? Wo lag eventuell der Fehler in der KI und wer unter den Myriaden Entwicklern und Programmierern könnte für die Entscheidung oder Fehlentscheidung des Fahrzeugprogrammes zur Rechenschaft gezogen werden? Und wie sollte das geschehen, wo doch KI als „selbstlernend“ gilt?

Fahren mit dem fehlerfreien Algorithmus

Aber der „autonome Alltag“ auf unseren Straßen ist noch Zukunftsmusik. Skeptische Stimmen, wie Thomas Sedran, bis vor kurzem Strategiechef von VW, und John Krafcik, Chef von Waymo, einem Unternehmen zur Technologie-Entwicklung für autonome Fahrzeuge, so führt der VDI-Autor aus, „bezweifeln gelegentlich gar, ob die volle Autonomie realisiert werden kann. Auf dem Weg dahin sind autonome Fahrzeuge mit unzähligen Aufgaben konfrontiert, das Sensorium der Fahrzeuge wächst. Mehr Kameras, die höher aufgelöste Bilder liefern, Radar-, Lidar- und weitere Sensoren, die immer größere Datenmengen als Input liefern. Das verlangt mehr Rechenleistung, und auch eine gewünschte Redundanz muss von einer zentralen Steuereinheit bewältigt werden. Sie muss einschätzen können, wie die Sichtverhältnisse in 50, 100 oder 200 Metern aussehen, sie muss Straßenverhältnisse (Glatteis, Aquaplaning) beurteilen, sie muss Informationen aus einer Cloud, Verkehrsmeldungen und Navigationsdaten mitverarbeiten“.

Gibt es überhaupt die Künstliche Intelligenz und den – vermeintlich fehlerfreien – Algorithmus? Kann es ihn überhaupt geben? Auch wenn die Kanzlerin gerne mit dem Begriff „alternativlos“ suggeriert, dass ihre Weltsicht die einzig wahre, ihre Entscheidungen die einzig richtigen sind, es gibt auch andere, widerstreitende Positionen. So würden wohl die Parteien im Deutschen Bundestag sich widerstreitende Künstliche Intelligenzen zum Einsatz bringen. Denn: Gäbe es nur eine allgemeingültige Formel für die KI, Parlament und Regierung wären von Stund an obsolet. Entscheidungsgremien und -instanzen, wie z. B. die Gerichte würden hinfällig; Urteile könnten praktisch aus einem Automaten gezogen werden. Der KI-Roboter entschiede, bei wem die Handschellen klicken.

Allgemeine Gleichheit oder repressive Kontrolle

Gleichzeitig werden von den vermeintlichen Möglichkeiten der KI beflügelte Visionen des Verschwindens der gesellschaftlichen Ungleichheiten entworfen. „Voraussetzung ist auch hier eine gemeinsame politische Entscheidung darüber, was Algorithmen leisten können und was wir von ihnen erwarten“, sagt Stefan Heidenreich in einem Interview mit der VolkswagenStiftung. Dies erfordere jedoch „eine breit angelegte gesellschaftliche Reflexion über denkbare technische Szenarien – und den Entwurf von Utopien.“ Gesteht dann aber ein: „Auch wenn de facto die Lage eine ganz andere ist und datenbasierte Verfahren genutzt werden, um Ungleichheiten fortzuschreiben und sogar zu verstärken. Die Gefahr, dass ein repressiver Kontrollstaat diese als Mittel der Überwachung einsetzt, um bestehende Vermögensverhältnisse zu erhalten, ist real. Aber Sinn und Zweck von Theoriebildung ist in diesem Kontext, Möglichkeiten durchzuspielen, wie der Einsatz von Algorithmen gut ausgehen könnte. Sicher ist allein eines: Soziale Gerechtigkeit kann man nicht gegen die Technik, sondern nur mit ihr herstellen.“

Künstliche Intelligenz ist nicht intelligent“

Von solchen Szenarien sind wir heute noch weit entfernt, aber in Teilbereichen werden solche (Fehl-)Entwicklungen durchaus sichtbar. Die „WirtschaftsWoche“ macht dies an einer Panne in den USA verständlich. Die KI wurde zur Zensurbehörde: „Sicht- und fühlbar geworden sind fehlerhafte Entscheidungen von künstlichen Intelligenzen aber auch im Web. So haben automatische Filter auf der US-Plattform Scribd Kopien des Abschlussberichts von US-Sonderermittler Robert Mueller zu Donald Trumps Wahlkampf zumindest vorübergehend gelöscht. Offenbar hatten die Filter einen Urheberrechtsverstoß angenommen, obwohl das Dokument gemeinfrei ist.“ Das WiWo-Fazit: „In anderen Worten: Künstliche Intelligenz ist nicht intelligent.“

Auf die (gewollten wie ungewollten) einseitigen oder fehlerhaften Entwicklungen wird sich in der kommenden Zeit das Augenmerk der kritischen Öffentlichkeit richten. Haftungsfragen werden einen großen Raum einnehmen. In einem 47-seitigen Positionspapier „Strategie Künstliche Intelligenz der Bundesregierung“ vom November 2018 sucht man das Wort „Haftung“ vergeblich. Aber es wird eingestanden, dass KI zwar „derzeit in Form einzelner Anwendungen autonomer und intelligenter Systeme Einzug in unseren Alltag“ halte, jedoch das „Wissen über und Erfahrung mit der Technologie noch nicht so weit verbreitet“ sei, „dass ein gesellschaftlich geklärtes Verhältnis dazu möglich wäre.“

Die Haftung der e-Person

Dass die Haftungsfrage für Systeme, die tatsächlich oder vermeintlich selbstständig Entscheidungen treffen können, essenziell sind, ist auf der politischen Bühne wohl nicht mehr umstritten. Umso strittiger dagegen, wie diese Haftung geregelt werden könne. Bisher können natürliche und juristische Personen zur Verantwortung gezogen und in Regress genommen werden. Hierzu soll sich nun die e-Person gesellen, hinter der sich die KI verbirgt. In einer Empfehlung an die EU-Kommission wird sogar vorgeschlagen „langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügelsten autonomen Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre…“

Dass hier die Meinungen weit auseinandergehen, lässt sich erahnen. Dahinter – so lässt sich unschwer erkennen – steht in erster Linie wohl die Absicht, der menschlichen Demiurgen sich aus der Verantwortung stehlen zu können. Künstliche Intelligenz die eine Entscheidung träfe, die Leben oder Sachwerte beschädigen oder unnötige Verluste bescheren, wäre dann wie „höhere Gewalt“ zu behandeln. Dazu aber müssten (wahrscheinlich mit natürlichen Personen besetzte) Gerichte entscheiden, ob der Schadensfall tatsächlich nicht vorauszusehen war und deshalb den Schöpfer der künstlichen Genialität auch wirklich keine Verantwortung trifft. Man mag sich ein derartiges Gerichtsverfahren gar nicht ausmalen.

Skepsis beim größten Industrieverband

„Die Einführung einer elektronischen Person ist nicht zielführend und würde viele neue Fragen aufwerfen anstatt bestehende zu lösen.“ Mit diesen Worten zitiert ein Online-Magazin Patrick Schwarzkopf vom Verband Deutscher Maschinen- und Anlagenbau (VDMA). Beim VDMA, dem mit rund 3200 Mitgliedern größten Industrieverband Europas, weiß man natürlich, dass die produzierende Industrie als Anwender von KI schnell in der Rolle des Leidtragenden rutschen kann.

Bei dem gesamten Problempaket ist das Thema Spionage und Konkurrenzausspähung noch gar nicht explizit behandelt. Der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (Bitkom) sieht sie noch in den Kinderschuhen stecken. KI könne, so Bitkom in einem 2018 veröffentlichten Studienbericht, „zum Beispiel beim Erkennen von Anomalien eingesetzt werden. Das Potenzial, welches diese Technologie auch im Bereich Cybercrime bietet, ist enorm. Dennoch wird sie heute noch bei keinem Unternehmen eingesetzt. Immerhin konkret geplant wird ein Einsatz bei rund drei Prozent und diskutiert bei rund acht Prozent der Unternehmen. Für 84 Prozent spielt diese Technologie zum Schutz gegen Angriffe heute noch keine Rolle.“

Wo Licht ist, ist auch Schatten

Aber KI kann natürlich nicht nur Schutz vor Angriffen bieten, sie kann maliziös auch für Angriffe präpariert werden. Der ehemalige Luxemburger Geheimdienstchef und jetzige Vice President Security bei Siemens, Marco Mille, wagt einen Ausblick auf das Ende des kommenden Jahrzehnts und gibt zu bedenken: „Wir können heute nur ahnen, was künstliche Intelligenz bis dahin leisten können wird. Aber wo Licht ist, ist auch Schatten, wo Chancen sind, gibt es auch Risiken.“ Abwägende Worte aus dem Hause eines Technologie-Konzerns.

Welche Einsatzmöglichkeiten ein gewisser Allmachtswahn für KI entdeckt, lässt sich am Beispiel China festmachen. Viele Chinesen seien durchaus bereit, so der Berliner „Tagesspiegel“ im August, „Überwachungskameras, Gesichtserkennung oder gar Zensur- und Spionage-Apps hinzunehmen, wenn das zu mehr Sicherheit führt.“ Die praktische Umsetzung wird an einem Beispiel aus der Region Guangzhou plastisch dargestellt: „Die menschlichen Lehrer erfahren, was ihre Schüler lesen, was sie in der Kantine essen, wie aufmerksam oder müde sie sind und wie sie sich am Unterricht beteiligen.“ So habe beispielsweise die Oberschule Nr. 11 in der Zehn-Millionen-Metropole Hangzhou „ein ‚intelligentes Verhaltensmanagementsystem für Klassenräume‘ installiert, das die Ausdrücke und Bewegungen der Schüler erfasst und große Datenmengen analysiert. Das System identifiziert die Schüler auch in der Mensa per Gesichtsscan und regelt die Abbuchung des Geldes für das Essen.“ Ein Narr, wer glaubt, dass solche Szenarien nicht auch schon in westlichen Köpfen spuken.

Diskriminierung durch KI

Wie schnell KI ein gefährliches und für das einsetzende Unternehmen nachteiliges Eigenleben entwickeln kann, wurde schon vor einigen Jahren in den USA nachgewiesen. Der Versandhandelsriese Amazon hatte KI zur Selektion von Mitarbeiterbewerbungen eingesetzt – und Frauen diskriminiert. Der Auswahlroboter war mit den Unterlagen bereits Beschäftigter trainiert worden und hatte dabei für sich herausgefunden, dass sich eher Männer für eine derartige Tätigkeit interessieren. Bewerbungen von Frauen fielen daraufhin durch die Raster. Das Ende vom Lied war, dass nach drei Jahren Testlauf dem Roboter der Stecker gezogen werden musste.

So verweist die „Neue Zürcher Zeitung“ das was heute unter KI verstanden wird auf seinen tatsächlichen Platz. Die Maschine habe kein Verständnis wie es die menschliche Handlungsweise erfordert. So bleibe das Problem, resümiert das Blatt, „dass funktionale Äquivalenz zwischen Menschen und Maschine (die mit heutiger KI noch nicht zu erreichen ist) aufseiten Letzterer noch kein Verständnis gewährleistet. Und Verantwortungsübernahme oder -zuschreibung ohne Verständnisgabe bleibt eine Schimäre.“

Bildquelle Künstliche Intelligenz: AdopeStock – Urheber: peshkov

Beitrag teilen

Über den Autor: Peter Niggl

Peter Niggl, Journalist und Chefredakteur der Fachzeitschrift Security Insight