Künstliche Intelligenz – wenn für Fehler die ePerson haften soll

Künstliche Intelligenz: Wo Licht ist, ist auch Schatten, wo Chancen sind, gibt es auch Risiken. Skepsis auch beim größten Industrieverband, beim Thema KI.

Lesezeit: 10 Min.

16.06.2020

Von Peter Niggl

Der Begriff Künstliche Intelligenz – kurz KI – ist inzwischen allgegenwärtig. Besonders im zurückliegenden Jahr schwoll die Flut der Veröffentlichungen dramatisch an. Die Pressemappen quellen über mit (vermeintlichen, vorgeblichen oder realen) Erfolgsmeldungen. Der KI werden wahre Wunderkräfte attestiert. Wenn man den Werbetextern Glauben schenken darf, gehen wir rosigen Zeiten entgegen. Die KI werde uns und vor allem den Unternehmen auf fast allen Gebieten goldenen Zeiten entgegenführen. Die Medien ergehen sich in Superlativen, wie am 2. November das Internetportal der „Welt“: „KI macht es buchstäblich möglich, Wissen, also Macht, zu produzieren. Wer auf diesem Gebiet innovativ führt, erringt wirtschaftliche, politische und schließlich geostrategische Vor- und Übermacht.“

Im allgemeinen Freudentaumel über die scheinbar unbegrenzten Möglichkeiten dieser neuen Steuerungstechnik kommen nachdenkliche Stimmen fast etwas zu kurz. Mahnende Worte zum neuen IT-Hype aber sollten nicht überhört werden. „Nur wenn die KI-Entwicklung sich auch mit den ethischen, moralischen und normativen Folgen ihres Handelns befasst, wird Vertrauen in der Gesellschaft wachsen“, gab die VolkswagenStiftung im Frühsommer dieses Jahres zu bedenken.

Stanley Kubrick und der mordende Computer

Abgesehen davon, dass inzwischen der Begriff KI geradezu inflationär für jede Weiterentwicklung computergesteuerter Technik verwendet wird, schießen an anderer Stelle Illusionen von nahezu wundersamen und fast magischen Kräften ins Kraut. Schafft sich der Mensch sein technisch perfektes Ebenbild? Skepsis scheint angebracht.

Schon vor über einem halben Jahrhundert hat sich der US-amerikanische Regisseur Stanley Kubrick der Kehrseite von KI angenommen. In seinem Science-Fiction-Streifen „2001: A Space Odyssey“ gerät der Computer HAL 9000 an Bord eines Raumschiffes auf einer Mission zum Jupiter außer Kontrolle. Nach einigen Fehlern der Denkmaschine beschließt die Besatzung, das Gerät abzuschalten. HAL wehrt sich gegen seinen Exitus und beginnt nacheinander die Crew-Mitglieder zu eliminieren. Bis es dem letzten Verbliebenen gelingt, im begehbaren Computerhirn die Stecker der Synapsen zu ziehen. In der dadurch erzeugten Degenerierung singt HAL zum Schluss ein Kinderlied, das er in seiner „Erziehungsphase“ gelernt hatte. Ein Supercomputer mit einer sehr menschlich angehauchten schwarzen Seele.

Wenn der Computer über Leben und Tod entscheidet

Der VDI Verein Deutscher Ingenieure teilt die Euphorie um die KI nicht. „Künstliche Intelligenz hat keine Moral und löst keine ethischen Konflikte. Künstliche Intelligenz kann Regeln anwenden, ändert sie aber nicht“, heißt in einem VDI-Aufsatz vom Mai 2019 über das automatisierte Fahren und die Stolpersteine auf dem Weg dorthin. „Vollends schwierig, wenn nicht ausweglos sind Situationen“, so der Autor, „in denen ein Fahrzeug abwägen müsste, ob es auf ein kleines oder ein großes Hindernis aufprallen möchte. Was, wenn das große Hindernis ein Brückenpfeiler ist – was, wenn das kleine Hindernis kein Hase oder Waschbär, sondern ein Radfahrer, Fußgänger oder Kinderwagen ist?“

Der mit KI ausgestattete Computer müsste nun entscheiden, ob er das Leben des Fahrgastes oder des Radfahrers, Fußgängers oder Kindes aufs Spiel setzt. Schon hier stellt sich die Frage, ob den KI-Rechnern so menschliche Attribute wie Skrupel in die Programmierwiege gelegt werden und wie die Algorithmen dafür aussehen müssten. Darüber hinaus würde in einem solchen Fall zwangsläufig eine weitere Komponente ins vertrackte Spiel kommen: Wer haftet bei künstlich intelligenten Entscheidungen? Wo lag eventuell der Fehler in der KI und wer könnte für eine Fehlentscheidung des Fahrzeugprogrammes zur Rechenschaft gezogen werden?

Diese Problematik lässt sich ohne Weiteres auf andere, bereits heute realistische Anwendungen übertragen. Bei der vorausschauenden Wartung sollen die Betriebsdaten von Maschinen mit KI permanent so analysiert werden, dass Ausfälle und Unregelmäßigkeiten bereits im Vorfeld erkannt und behoben werden können. Doch wer haftet, wenn die Algorithmen einen Fehler übersehen und die Brandmeldeanlage bei einem Feuer versagt, sodass womöglich Menschen zu Schaden kommen? Im Gegensatz zu wohldefinierten Wartungsarbeiten menschlicher Fachkräfte lassen sich die Algorithmen einer KI nur schwer oder gar nicht überprüfen.

Fahren mit dem fehlerfreien Algorithmus

Aber der „autonome Alltag“ auf unseren Straßen ist noch Zukunftsmusik. Skeptische Stimmen, wie Thomas Sedran, bis vor kurzem Strategiechef von VW, und John Krafcik, Chef von Waymo, einem Unternehmen zur Technologie-Entwicklung für autonome Fahrzeuge, so führt der VDI-Autor aus, „bezweifeln gelegentlich gar, ob die volle Autonomie realisiert werden kann. Auf dem Weg dahin sind autonome Fahrzeuge mit unzähligen Aufgaben konfrontiert, das Sensorium der Fahrzeuge wächst. Mehr Kameras, die höher aufgelöste Bilder liefern, Radar-, Lidar- und weitere Sensoren, die immer größere Datenmengen als Input liefern. Das verlangt mehr Rechen­leistung, und auch eine gewünschte Redun­danz muss von einer zentralen Steuereinheit bewältigt werden. Sie muss einschätzen kön­nen, wie die Sichtverhältnisse in 50, 100 oder 200 Metern aussehen, sie muss Straßenver­hältnisse (Glatteis, Aquaplaning) beurteilen, sie muss Informationen aus einer Cloud, Ver­kehrsmeldungen und Navigationsdaten mitverarbeiten“.

So stellt sich die Frage, ob es die Künstliche Intelligenz und den – vermeintlich fehlerfreien – Algo­rithmus überhaupt geben kann. Und selbst wenn, was passiert dann? Gäbe es eine allge­meingültige Formel für die KI, Parlament und Regierung wären von Stund an obsolet. Ent­scheidungsgremien und -instanzen, wie z. B. die Gerichte würden hinfällig; Urteile könnten praktisch aus einem Automaten gezogen wer­den. Der KI-Roboter entschiede, bei wem die Handschellen klicken. Minority Report und Precrime lassen grüßen.

Allgemeine Gleichheit oder repressive Kontrolle

Gleichzeitig werden Visionen vom Verschwinden gesellschaftlicher Ungleichheiten entworfen, beflügelt von den vermeintlichen Möglichkeiten der KI. „Voraussetzung ist auch hier eine gemeinsame politische Ent­scheidung darüber, was Algorithmen leis­ten können und was wir von ihnen erwarten“, sagt Stefan Heidenreich in einem Interview mit der VolkswagenStiftung. Dies erfordere jedoch „eine breit angelegte gesellschaftliche Reflexion über denkbare technische Szenari-en – und den Entwurf von Utopien.“ Gesteht dann aber ein: „Auch wenn de facto die Lage eine ganz andere ist und datenbasierte Ver­fahren genutzt werden, um Ungleichheiten fortzuschreiben und sogar zu verstärken. Die Gefahr, dass ein repressiver Kontrollstaat diese als Mittel der Überwachung einsetzt, um bestehende Vermögensverhältnisse zu erhalten, ist real. Aber Sinn und Zweck von Theoriebildung ist in diesem Kontext, Mög­lichkeiten durchzuspielen, wie der Einsatz von Algorithmen gut ausgehen könnte. Sicher ist allein eines: Soziale Gerechtigkeit kann man nicht gegen die Technik, sondern nur mit ihr herstellen.“

Künstliche Intelligenz ist nicht intelligent“

Von solchen repressiven Szenarien sind wir heute noch weit entfernt, aber in Teilbereichen werden solche (Fehl-)Entwicklungen durchaus sicht­bar. Die „WirtschaftsWoche“ macht dies an einer Panne in den USA verständlich. Die KI wurde zur Zensurbehörde: „Sicht- und fühlbar geworden sind fehlerhafte Entschei­dungen von künstlichen Intelligenzen aber auch im Web. So haben automatische Fil­ter auf der US-Plattform Scribd Kopien des Abschlussberichts von US-Sonderermittler Robert Mueller zu Donald Trumps Wahlkampf zumindest vorübergehend gelöscht. Offen­bar hatten die Filter einen Urheberrechtsverstoß angenommen, obwohl das Dokument gemeinfrei ist.“ Das WiWo-Fazit: „In ande­ren Worten: Künstliche Intelligenz ist nicht intelligent.“

Auf die (gewollten wie ungewollten) einsei­tigen oder fehlerhaften Entwicklungen wird sich in der kommenden Zeit das Augenmerk der kritischen Öffentlichkeit richten. Haf­tungsfragen werden einen großen Raum ein­nehmen. In einem 47-seitigen Positionspapier „Strategie Künstliche Intelligenz der Bundes­regierung“ vom November 2018 sucht man das Wort „Haftung“ zwar vergeblich. Aber es wird eingestanden, dass KI „derzeit in Form einzelner Anwendungen autonomer und intel­ligenter Systeme Einzug in unseren Alltag“ halte, jedoch das „Wissen über und Erfah­rung mit der Technologie noch nicht so weit verbreitet“ sei, „dass ein gesellschaftlich geklärtes Verhältnis dazu möglich wäre.“

Die Haftung der e-Person

Dass die Haftungsfrage für Systeme, die tat­sächlich oder vermeintlich selbstständig Ent­scheidungen treffen können, essenziell sind, ist auf der politischen Bühne wohl unumstritten. Ungeklärt ist dagegen, wie diese Haftung geregelt werden soll. Bisher können nur natürliche und juristische Personen zur Verantwortung gezogen und in Regress genommen werden. Hierzu soll sich nun die e-Person gesellen, hinter der sich die KI ver­birgt. In einer Empfehlung an die EU-Kommis­sion wird sogar vorgeschlagen „langfristig einen speziellen rechtlichen Status für Robo­ter zu schaffen, damit zumindest für die ausgeklügelsten autonomen Roboter ein Sta­tus als elektronische Person festgelegt wer­den könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwort­lich wäre…“

Dass hier die Meinungen weit auseinandergehen, lässt sich erahnen. Dahinter steht in erster Linie wohl die Absicht der menschlichen KI-Schöpfer, sich aus der Verantwortung zu stehlen. Künstliche Intelligenz die eine Entscheidung träfe, die Leben oder Sachwerte beschädigen oder unnötige Verluste bescheren, wäre dann wie „höhere Gewalt“ zu behandeln. Dazu aber müssten (wahrscheinlich mit natürlichen Personen besetzte) Gerichte entscheiden, ob der Schadensfall tatsächlich nicht vorauszusehen war und deshalb den Schöpfer der künstlichen Genialität auch wirklich keine Verantwortung trifft. Man mag sich ein derartiges Gerichtsverfahren gar nicht ausmalen.

Skepsis beim größten Industrieverband

„Die Einführung einer elektronischen Person ist nicht zielführend und würde viele neue Fragen aufwerfen, anstatt bestehende zu lösen.“ Mit diesen Worten zitiert ein Online-Magazin Patrick Schwarzkopf vom Verband Deutscher Maschinen- und Anlagenbau (VDMA), dem mit rund 3200 Mitgliedern größten Industrieverband Europas. Dort weiß man natürlich, dass die produzierende Industrie als Anwender von KI schnell in der Rolle des Leidtragenden rutschen kann.

Bei dem gesamten Problempaket ist das Thema Spionage und Konkurrenzausspähung noch gar nicht explizit behandelt. Der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (Bitkom) sieht sie noch in den Kinderschuhen stecken. KI könne, so Bitkom in einem 2018 veröffentlichten Studienbericht, „zum Beispiel beim Erkennen von Anomalien eingesetzt werden. Das Potenzial, welches diese Technologie auch im Bereich Cybercrime bietet, ist enorm. Dennoch wird sie heute noch bei keinem Unternehmen eingesetzt. Immerhin konkret geplant wird ein Einsatz bei rund drei Prozent und diskutiert bei rund acht Prozent der Unternehmen. Für 84 Prozent spielt diese Technologie zum Schutz gegen Cyber-Angriffe heute noch keine Rolle.“

Wo Licht ist, ist auch Schatten

Aber KI kann natürlich nicht nur Schutz vor Angriffen bieten, sie kann maliziös auch für Angriffe präpariert werden. Der ehemalige Luxemburger Geheimdienstchef und jetzige Vice President Security bei Siemens, Marco Mille, wagt einen Ausblick auf das Ende des kommenden Jahrzehnts und gibt zu bedenken: „Wir können heute nur ahnen, was künstliche Intelligenz bis dahin leisten können wird. Aber wo Licht ist, ist auch Schatten, wo Chancen sind, gibt es auch Risiken.“ Abwägende Worte aus dem Hause eines Technologie-Konzerns.

Welche Einsatzmöglichkeiten ein gewisser Allmachtswahn der KI beschert, lässt sich am Beispiel China festmachen. Viele Chinesen seien durchaus bereit, so der Berliner „Tagesspiegel“ im August, „Überwachungskameras, Gesichtserkennung oder gar Zensur- und Spionage-Apps hinzunehmen, wenn das zu mehr Sicherheit führt.“ Die praktische Umsetzung wird an einem Beispiel aus der Region Guangzhou plastisch dargestellt: „Die menschlichen Lehrer erfahren, was ihre Schüler lesen, was sie in der Kantine essen, wie aufmerksam oder müde sie sind und wie sie sich am Unterricht beteiligen.“ So habe beispielsweise die Oberschule Nr. 11 in der Zehn-Millionen-Metropole Hangzhou „ein ‚intelligentes Verhaltensmanagementsystem für Klassenräume‘ installiert, das die Ausdrücke und Bewegungen der Schüler erfasst und große Datenmengen analysiert. Das System identifiziert die Schüler auch in der Mensa per Gesichtsscan und regelt die Abbuchung des Geldes für das Essen.“ Ein Narr, wer glaubt, dass solche Szenarien nicht auch schon in westlichen Köpfen spuken.

Diskriminierung durch KI

Wie schnell KI ein gefährliches und für das einsetzende Unternehmen nachteiliges Eigenleben entwickeln kann, wurde schon vor einigen Jahren in den USA nachgewiesen. Der Versandhandelsriese Amazon hatte KI zur Selektion von Mitarbeiterbewerbungen eingesetzt – und Frauen diskriminiert. Der Auswahlroboter war mit den Unterlagen bereits Beschäftigter trainiert worden und hatte dabei für sich herausgefunden, dass sich eher Männer für eine derartige Tätigkeit interessieren. Bewerbungen von Frauen fielen daraufhin durch die Raster. Das Ende vom Lied war, dass nach drei Jahren Testlauf dem Roboter der Stecker gezogen werden musste.

Beitrag teilen

Über den Autor: Peter Niggl

Peter Niggl, Journalist und Chefredakteur der Fachzeitschrift Security Insight