Direkt zum Inhalt

Ergebnisse Künstlicher Intelligenz kann man nicht auditieren

07.11.2023
Frank Ewald, Leiter Konzernsicherheit Deutsche Post DHLFoto: ASW West
Frank Ewald, Leiter Konzernsicherheit Deutsche Post DHLFoto: ASW West

Mit Frank Ewald, Leiter Konzernsicherheit Deutsche Post DHL, sprach Peter Niggl

Herr Ewald, Künstliche Intelligenz hält inzwischen in sehr vielen Bereichen Einzug. In der Logistik dürfte sich KI nun sicher auch ihren Stellenwert erobern. Wie stellt sich der Weltmarktführer DHL auf die neue Herausforderung ein?

Vorweg: So neu ist KI für uns im Konzern und für die Konzernsicherheit nicht. Schon seit rund einem Jahrzehnt sammeln wir Erfahrung mit der KI und befassen uns damit, sie weiterzuentwickeln. In der KI steckt viel Potenzial einen Mehrwert zu generieren, die noch erschlossen werden können und müssen.

Wie und wo kommt Künstliche Intelligenz heute schon in Ihrem Aufgabengebiet zum Einsatz?

Bei uns z.B. in der Logistikplanung aber auch in der Konzernsicherheit wird KI eingesetzt, zum Beispiel in der Lageanalyse. Um das konkreter zu machen: Unsere Lageanalysten haben pro Tag etwa 1600 Sicherheitsmeldungen aus den verschiedensten Quellen auf den Tisch bekommen. Es ist unmöglich, alle diese Meldungen von fünf Lageanalysten durchzulesen und bewerten zu lassen sowie darüber hinaus entsprechende Entscheidungen abzuleiten. Man kann selbstverständlich vieles händisch vorsortieren, Filter anwenden, aber es ist so, dass das Gesamtaufkommen für die Analysten nicht handhabbar ist. Wir haben auf Filter basierend eine KI entwickelt, die selbstverständlich selbstlernend ist, zuvor aber von den Analysten angelernt wird. Ziel ist es zu erkennen, welche Meldungen von Interesse sind; welche Themen in der sicherheitspolitischen Landschaft für uns gegenwärtig besonders interessant sind usw. Auf dieser Basis lernt die KI und gibt nur noch Meldungen weiter, die mit diesen Themen zu tun haben. Hier muss ich jedoch hinzufügen: Man muss sehr genau arbeiten, wenn man solche Filtermöglichkeiten nutzt, damit nicht falsche Dinge herausgefiltert werden. Dahingehend muss die KI immer wieder nachgesteuert werden.

Grundsätzlich kann man aber festhalten, dass die Einführung von KI für uns ein Riesenfortschritt war. Bei vorher 1600 Meldungen ohne Unterstützung, landen wir heute mittels der KI bei 150 Sicherheitsmeldungen, die dann von den Analysten auch tatsächlich gesichtet und bearbeitet werden können.

DHL ist in mehr als 220 Ländern mit über einer halben Million Mitarbeiter präsent. Haben Sie die Konzernsicherheit über den ganzen Globus mittels KI im Blick?

Ich glaube, es wäre übertrieben, wenn man sagen würde, dass wir weltweit mit KI-Unterstützung agieren. Es sind ein stückweit Inseln. Aber es ist sicher schon ein weltweiter Einsatz der KI in Logistikprozessen unseres Konzerns zu sehen. In der KI-basierten Lagebearbeitung, wenn wir wieder auf die Konzernsicherheit kommen wollen, fließen auch Meldungen ein, die wir von unseren Kolleginnen und Kollegen aus den internationalen Bereichen bekommen. Selbstverständlich gibt es auch Unterstützung durch Dienstleister und weitere Quellen, die dort einfließen; also im Grunde eine weltweite Zusammenfassung.

Es sind in der Logistik wahrscheinlich die vielfältigsten Einsatzmöglichkeiten von KI denkbar, die bis zu den Kunden reichen. Ist das schon Praxis?

Wir befinden uns am Anfang des Einsatzes von KI. Dies betrifft viele Felder der Sicherheit, z.B. Videomanagement, Zutrittskontrollmanagement, Lageanalyse etc. Da gibt es heute schon gewisse Möglichkeiten.

Wenn sie aber die Wertschöpfungsketten, vom Kunden über die Logistik in der Supply Chain betrachten, dann sind die nicht KI-vernetzt oder -gesteuert. Bei einzelnen Prozessschritten kann man allerdings sagen ja, bei anderen wiederum nicht. Wir haben beispielsweise auch Blockchain-Anwendungen in den Logistikprozessen. Hier gibt es i.d.R. Prozesse, die von der Kundenproduktion, über die Bereitstellung, die Lagerhaltung, den Transport bis hin zur Auslieferung reichen.

Ohne in die Glaskugel schauen zu wollen: Wird in Zukunft beim Einsatz der KI auch die Einbeziehung der Kunden notwendig werden?

Früher oder später wird das sicherlich so ein. In Teilen ist das vielleicht auch schon so. Wenn man dann aber einmal ein durchgehendes System etablieren möchte, wird es auch zu allen Kunden Schnittstellen geben. Ich möchte hier einen Aspekt ansprechen, der die Frage andersherum stellt. Wenn ein Kunde KI einsetzen will, wird es dann auch so sein, dass sich die Dienstleister, die Logistiker, dem anschließen müssen. Wir sind dahingehend auch durch den Kunden gesteuert, was wir selbstverständlich gerne akzeptieren, - auf welcher Technologiebasis das auch immer gewünscht wird.

Nun ist KI selbst ein Wert, wenn ich mir beispielsweise vorstelle, mit welcher Datenfülle das System gefüttert wird. Wird dadurch die KI selbst zum Angriffsziel?

Da sprechen Sie ein wichtiges Risikofeld von Künstlicher Intelligenz an. Einmal können KI-Anbindungen durch klassische Cyberangriffe gehackt werden. Aber es ist durchaus denkbar, dass andere KI-Anwendungen die eigene KI angreifen und dadurch auch ein Datenabfluss, sprich Datendiebstahl stattfindet. Wir haben mitbekommen, dass Daten freigesetzt wurden, die eigentlich proprietär waren. Dieses Thema wurde auch bei uns besprochen. Ich glaube, es gibt noch keine Goldrandlösung wenn es um das Thema Risikobegrenzung geht. Das wird auch zukünftig eine erhebliche Herausforderung sein.

Der Zugriff auf die KI – auf die Prozesse und die Daten - ist doch sicher auch ein aktuelles Thema?

Der Zugriff auf die interne KI ist grundsätzlich geregelt und zwar über die Zugangsrechte. Das sieht man tendenziell auch bei öffentlich verfügbaren KI-Anwendungen. Schwierig wird es allerdings bei der Frage, woher die Informationen für die KI kommen, wie sie weitergeleitet wurden. Ein springender Punkt: Automatische Neuronale Netzwerke (ANN) sind nicht oder nur schwer auditierbar.

Verändert die KI auch Ihr Berufsbild?

Meiner persönlichen Meinung nach wird sie das Berufsbild von fast allen Berufen verändern, die Sicherheit gehört natürlich dazu…

… indem Sie auch aktiv in den Entwicklungsprozess eingreifen …

… genau. Auch in unserem Unternehmen gibt es einen Center of Excellence für Künstliche Intelligenz. Wir sind als Konzernsicherheit auch Mitglied in diesem Center of Excellence. Uns bewegen zwei Aspekte. Einmal wollen wir als Konzernsicherheit von KI profitieren, auf der anderen Seite sind wir diejenigen, die auf die Risiken hinweisen müssen, die der Einsatz der KI mit sich bringt. Ein Stück weit befinden wir uns wieder in der Rolle der Mahner, die die Sicherheitsrisiken begreifen und darstellen müssen. Und auf dieser Grundlage muss entschieden werden, will man die Risiken eingehen oder wie kann man zukünftig damit umgehen.

Angesichts dieser Herausforderung liegt die Frage nahe: Welchen Stellenwert nimmt die KI im Rahmen Ihrer gesamten Tätigkeit ein?

Wir stellen jetzt nicht unsere Arbeit ein und fokussieren uns ausschließlich auf Künstliche Intelligenz. Einer unserer Analysten beschäftigt sich vornehmlich mit diesem Thema. Ein Schwerpunkt ist die klassische Unternehmens-IT, die für Programmierungen gerne verstärkt KI einsetzen möchte und in Teilen dies auch tut. Man muss aber eben wiederum betrachten welche Risiken damit einhergehen, im Besonderen, wenn es um sensible IT-Applikationen geht. Gewisse Interne Informationen sollten ja gerade nicht in das öffentliche Netz gelangen. Meiner Meinung nach wird das gerade im Programmierbereich ein Schwerpunkt sein, da werden wir unsere Programmierkollegen unterstützen. Besonders wenn man mit dem gesicherten Netzwerkbereich nach außen tritt.

Wie muss man sich die Anwendung von Künstlicher Intelligenz vorstellen? Wie offen oder geschlossen ist das System?

Es gibt Anwendungen, die global und recht offen ausgerichtet sind. Da muss man vorsichtig sein. Mittlerweile gibt es sicherlich neue und auch bestehende regulatorische Hürden, wie das Wettbewerbsrecht. Also bei solchen großen Systemen gibt es schon einige Dinge die man beachten sollte. Aber es gibt gleichzeitig kleine Nischenanwendungen, die auf unsere Bedürfnisse trainiert werden. Da findet keine Interaktion mit Mitbewerbern oder anderen Anbietern statt.

Woher kommen die Angriffe auf die KI?

Im Grunde haben wir das Gleiche wie in der Vergangenheit. Wir haben staatliche Akteure, die KI auch im maliziösen Sinne einsetzen. Wir haben ebenfalls kriminelle Gruppen. Da sich aber jeder, also auch ungeschulte Personen, durch KI ein Schadprogramm entwickeln lassen können, kommen weitere und potenziell neue Tätergruppen hinzu. Man kann mit Sicherheit sagen, das Feld der Angreifer wird durch KI größer werden. Professionelle Anwendungen maliziöser KI durch die Organisierte Kriminalität und die Nachrichtendienste scheinen derzeit aber mit dem höchsten Risiko verbunden zu sein.

Die Gefahren durch eine Abhängigkeit von IT-Anwendungen kennen wir ja heute schon. Durch die KI kann dies noch erheblich verstärkt werden, weil sich die Abhängigkeiten potenzieren. Ich muss es in diesem Zusammenhang noch einmal betonen, die Auditierbarkeit ist bei KI im Grunde nicht mehr gegeben. Das heißt auch, dass die Ergebnisse von Künstlicher Intelligenz in weiten Teilen nicht mehr manuell reproduzierbar sind.

Schränkt das nicht die Gestaltungsmöglichkeiten Ihrerseits ein?

In gewisser Weise schon. Zunächst wird es nicht mehr auf den Menschen ankommen, der Inhalte produziert, die eine KI im Zweifel schneller und präziser erzeugen kann. Es wird eher um Menschen gehen, die der KI den sogenannten Frame – also den Rahmen –vorgeben; mit welchen Inhalten soll die KI gefüttert werden. Man wird Leute brauchen, die mehr das Framing gestalten als den Content. Die inhaltliche Gestaltung wird langfristig sehr eingeschränkt sein, dennoch werden sich Menschen auch in Zukunft den Inhalt noch einmal anschauen, überarbeiten und verbessern. Schon allein um politische Vorbehalte zu identifizieren, die ein KI-Ergebnis ggf. noch nicht berücksichtigen kann.

In welcher Form und mit welchem Zweck und Ziel werden Angriffe auf die KI gestartet?

Die Angriffe können äußerst vielfältiger Natur sein. Das kann im Ergebnis die Manipulation von Sicherheitstechnologie betreffen und bei uns von Einbrüchen in Lagerhäuser und Verteilzentren, Überfälle auf Lkw-Transporte usw. reichen. Da gibt es eine Vielfalt von Möglichkeiten, die heute schon bestehen. Aber mit KI ergeben sich auch noch viel weitreichendere Möglichkeiten, wie beispielsweise der Manipulation menschlicher Wahrnehmung, was Deliktbereiche wie betrügerisches Handeln erheblich betreffen wird.

Inwieweit besteht die Gefahr, dass durch die Manipulation der KI sagen wir einmal, ein Schiff fehlgeleitet wird?

Diese Gefahr besteht heute schon, wenn durch einen Hacker-Angriff auf Navigationsapplikationen die Koordinaten manipuliert würden. Diese Art der Auswirkungen könnte KI allerdings um ein Vielfaches erhöhen, wenn beispielsweise durch eine solche Manipulation, dass gesamte Logistiknetzwerk kompromittiert würde.

Inwieweit KI ein gefährliches Eigenleben entwickeln kann, haben wir z.B. dieses Jahr erlebt. Plötzlich kursierte im Netz ein Bild, das Rauch über dem Pentagon zeigte. Von der KI erzeugt. Mit der Meldung eines Angriffs auf das US-Verteidigungsministerium. Alles Fake, aber es kam kurzzeitig zu erheblichen Verunsicherungen in der Gesellschaft bis hin zu messbaren Auswirkungen an den Börsen.

Wie schnell lässt es sich dann feststellen, ob ein solches KI-gesteuertes Kontrollsystem gehackt wurde?

Darauf gibt es keine hinlängliche Antwort. Es gibt Angriffe, die fallen sofort auf, innerhalb von Sekunden; es wird aber auch Angriffe geben, die nie auffallen oder erst nach einem langen Zeitraum. Da wird es eine große Spannweite geben – wie übrigens heute auch schon. Ich will aber auch hinzufügen: Viele unserer Schutzmechanismen werden in Zukunft KI-gestützt sein. Die KI hat sehr viele positive Potenziale, die wir nicht aus den Augen verlieren dürfen. Es gibt auch hier die zwei Seiten einer Medaille.

 

 

Mehr Artikel vom Autor

Peter Niggl

Peter Niggl, Journalist und Chefredakteur der Fachzeitschrift Security Insight

Aktuell zum Thema