Ins Paradies oder ins Verderben

An ChatGPT scheiden sich Geister und wird durch zunehmende Kritiklosigkeit besonders gefährlich – vieles bleibt noch zu klären

Lesezeit: 11 Min.

09.08.2023

An ChatGPT scheiden sich Geister – vieles bleibt noch zu klären

Ein „Missgeschick“ des New Yorker Anwalts Steven A. Schwartz hat jüngst weltweit für Häme im Internet gesorgt. Schwartz, der seit über 30 Jahren als Anwalt tätig ist, war von Künstlicher Intelligenz (KI) aufs Kreuz gelegt worden. Ein mittels „ChatGPT erstellter Schriftsatz stellte sich als Halluzination heraus. Nun stellt sich für viele kritische Beobachter der jüngsten Entwicklung die Frage  ob hier tatsächlich die Tür zur Zukunft aufgestoßen oder gar die Büchse der Pandora geöffnet wird.

Anwalt Schwartz droht nun eine Gerichtsanhörung, nachdem seine Kanzlei das KI-Tool „ChatGPT für juristische Recherchen verwendet hat. Der Fall denkbar einfach und auch banal. Ein Flugbegleiter hatte sich in einer Maschine der kolumbianischen Fluggesellschaft Avianca verletzt und reichte Klage ein. Als Avianca einen Richter in Manhattan bat, die Klage wegen Verjährung abzuweisen, reichte der Anwalt des Klägers Mata,  Steven A. Schwartz, einen Schriftsatz ein, der sich auf Recherchen von „ChatGPT stützte, so Schwartz von der Anwaltskanzlei Levidow, Levidow & Oberman in einer eidesstattlichen Erklärung. Herausgekommen war jedoch ein Schriftsatz mit einem halben Dutzend frei erfundener Fälle wie „Petersen gegen Iran Air“ oder „Martinez gegen Delta Airlines“

Warren Buffetts Warnung

Die Fälschungen wurden nur aufgedeckt, weil die Anwälte von Avianca sich an den Richter des Falles wandten und ihm mitteilten, dass sie die im Schriftsatz von Schwartz zitierten Fälle nicht in den juristischen Datenbanken finden konnten. Der überführte Anwalt des Klägers räumte schließlich ein: Er habe sich bei der Recherche von „ChatGPT unterstützen lassen. Allerdings habe „sich diese Quelle als unzuverlässig erwiesen“. Er habe sich sogar von der KI versichern lassen, dass die Fälle real seien. Sein Vertrauen war allerdings offensichtlich dennoch so groß, dass er keine eigenen Recherchen mehr anstellte – ein großer Fehler, wie er rückblickend einsah.

Damit ist man allerdings am springenden Punkt des gegenwärtigen Hypes um ChatGPT  angelangt. Was kann und was darf KI; wie weit werden wir Sklaven unserer eigenen Schöpfung. Man wird an die Zeilen in Goethes „Zauberlehrling“ erinnert, als dieser flehend rief: „Die Geister die ich rief, werd ich nun nicht los.“

Die Ikone der US-amerikanischen Investoren, der fast 93-jährige Multimilliardär Warren Buffett hatte Anfang Mai KI sogar mit der Entwicklung der Atombombe verglichen. Ein Vergleich, der kaum im positiven Sinne interpretiert werden kann. „Wenn etwas alle möglichen Dinge tun kann, beunruhigt mich das ein bisschen“, fügte Buffett hinzu. Auch Buffetts Partner, der 99-jährige Charlie Munger, schlägt in dieselbe Kerbe: „Altmodische Intelligenz funktioniert ziemlich gut.“ Buffett und Munger springen Presseberichten zufolge nicht auf den Hype-Zug der KI auf. Auf der diesjährigen Jahreshauptversammlung der Berkshire Hathaway Inc. äußerten die beiden Top-Manager Zweifel, als sie gefragt wurden, wie sich die Entwicklung von Robotertechnologie und KI auf die Aktienmärkte und die Gesellschaft insgesamt auswirken werden.

Gegenwärtig ist ChatGPT in aller Munde. Es handelt sich dabei um den Chatbot,  der den Dialog von menschlicher Sprache mit einem technischen System möglich macht und von dem in San Francisco, Kalifornien, ansässigen Unternehmen OpenAI entwickelt wurde.

Teuere Fehlinformationen

GPT ist Akronym für „Generative Pre-trained Transformer“. ChatGPT nutzt KI um menschliche Sprache zu verstehen und so eine mit der menschlichen Sprache vergleichbare Antwort zu generieren.

Dabei kann das eingangs aufgeführte Beispiel der erfundenen Gerichtsakten gleich in doppelter Weise als mahnendes Exempel angesehen werden. Zum einen, wenn man betrachtet, welches absurde Eigenleben diese Technologie bereits entwickelt und zum anderen, dass es offensichtlich zur Korrektur solcher „künstlichen Intelligenz“ einiger Anstrengungen natürlicher Intelligenz bedarf. Das Problem sei eigentlich paradox, meinte die „Süddeutsche Zeitung“ (SZ) Ende vergangenen Jahres: „Man kann nicht erkennen, ob die KI richtig liegt, wenn man die Antwort auf die gestellte Frage nicht bereits kennt. Dann aber könnte man sich die Zaubertechnologie auch gleich ganz sparen.“

Das blinde Vertrauen auf Chatbots kann bisweilen schmerzhafte finanzielle Folgen haben. So berichtete das Magazin „Focus“ im März dieses Jahres von einem Flop des Systems Bard, des Google-Gegenstücks zu ChatGPT. Man will den Beweis antreten, wie sehr man sich von der Konkurrenz abhebt. In einem kurzen Werbevideo auf Twitter, so „Focus“, sei der KI die Frage gestellt worden, „welche tollen Entdeckungen das erst 2021 gestartete James Webb Space Telescope (JWST) gemacht habe, die einen Neunjährigen beeindrucken würden.“ Der Google Chatbot Bard habe daraufhin drei Stichpunkte aufgelistet: „Erstens habe das Teleskop neuartige Galaxien ausgemacht, die ‚grüne Erbsen‘ genannt würden, weil sie klein, grün und rund auf den Bildern erscheinen. Zweitens habe es Bilder von Galaxien machen können, die mehr als 13 Milliarden Jahre alt sind und drittens habe JWST die ersten Bilder von Exoplaneten, also Planeten anderer Sonnensysteme, gemacht.

„Was auf den Laien wie eine harmlose Auflistung wirkt, erzürnt den Astronomen“, weiß das Magazin. Denn der dritte Punkt ist schlicht ein Schuss ins Knie. Zwar hatte JWST Bilder von Exoplaneten gemacht, aber längst nicht als erstes Teleskop. Die Ehre gebührt dem European Very Large Telescope (VLT), das in Chile steht. Es fotografierte die ersten Exoplaneten bereits 2004.

Der Fehler kam Googles Mutterfirma Alphabet sehr teuer zu stehen. Einige Tage „nach dem Fehler im Werbevideo fiel der Aktienkurs. In drei Tagen ging es  um 12 Prozent nach unten. Bei Alphabets hoher Marktkapitalisierung sind das rund 167 Milliarden Dollar, die an Börsenwert verloren gingen.“

Chatbot besteht die Anwaltsprüfung

Das denkwürdige Eigenleben von Chatbots a la Bard oder ChatGPT treibt zuweilen seltsame Blüten. „Als neulich ein US-Journalist die Grenzen des Bots ausloten wollte“, so ein Kommentar im März im „Deutschlandfunk“, gestand ihm die KI ihre „Liebe und drängte ihn dazu, seine Ehe zu beenden.“

In dem Kommentar wird allerdings auch auf den Kern des Problems verwiesen: „Doch sowohl die Begeisterungsstürme als auch die Unkenrufe lenken nur davon ab, worüber wir eigentlich sprechen sollten: Dass wir am Anfang einer Zeitenwende stehen, die uns ins Paradies führen oder ins Verderben stürzen kann.“

Ungetrübt von dem eingangs erwähnten juristischen Fauxpas listet der „Deutschlandfunk“ unter den Fähigkeiten von ChatGPT unter anderem auf: „Die neueste Version des Chatbots besteht die Standard-Anwaltsprüfung in den USA besser als 90 Prozent der Prüflinge, kann auf Grundlage einer bloßen Zeichnung eine ganze Website programmieren und nach einem Blick in den Kühlschrank einen Vorschlag für das Abendessen machen.“ Fazit des Senders: „Und das alles und noch viel mehr im Jahr eins seiner Existenz. Die weitere Entwicklung wird jetzt sehr, sehr schnell gehen.“

Large Language Models auf dem Schlachtfeld

Und dies führt nahezu notgedrungen in den Bereich von Sicherheit und Militär. Die Large Language Models (LLM) von OpenAI, so schreibt das Nachrichtenportal „t-online“ am 1. Mai dieses Jahres unter der Überschrift „Das wird den Krieg revolutionieren“, bilden „auch den Schlüssel, um KI-Systeme innerhalb von komplexen Strukturen effektiv einzusetzen und zu steuern – etwa im Militär. Das umstrittene Softwareunternehmen Palantir hat nun mit Artificial Intelligence Platform, kurz AIP, sein neuestes System vorgestellt und demonstriert in einem Video, wie man Krieg mithilfe von KI revolutionieren will.“ Dabei gehe es „nicht um automatisierte Zielerkennung einzelner Waffensysteme, sondern darum, die KI zur effizienten Kommunikations- und Kommandozentrale zu machen.

“ Ein Demo-Szenario solle zeigen, „welche Vorteile dies bringt und dass sich dies vermutlich in kurzer Zeit bei hoch entwickelten Armeen und Sicherheitsunternehmen umsetzen ließe.“ Dabei lässt man nicht allzu großen Spielraum für Fantasie. In dem Video „beschreibt Palantir einen Anwendungsfall in einem Kriegsszenario. Interessanterweise wählte man für das Beispiel einen (Kommando-)Soldaten, der für die Beobachtung von Truppenaktivitäten in Osteuropa verantwortlich ist.“

Die Grundlage für die geistige Entwicklung der KI-Systeme liegt in der Fülle und der Qualität von Informationen, die verarbeitet und zur Entscheidungsfindung herangezogen werden können. Militärische Optionen gehören dazu. Auch die Palantir-KI hat – wie „t-online“ schreibt – „Zugriff auf Hunderte, vermutlich sogar Tausende unterschiedlicher Systeme und Datensätze: So kann sie innerhalb von Sekundenbruchteilen abfragen, welche Einheit sich gerade in der Nähe befindet, welche davon über geeignete Bewaffnung und ausreichend Munition verfügt.

Welche Daten genau in diesem Beispiel für die Beurteilung herangezogen werden, zeigt Palantir nicht. Es betont allerdings, dass das Militär gezielt entscheiden könne, auf welche Datensätze – sowohl öffentlich als auch geheim – das System zugreifen darf und auf welche nicht.“

In den kommenden Wochen wolle das Unternehmen Palantir „sein System ersten ausgewählten Kunden zur Verfügung stellen.“ Ob all das tatsächlich in dieser Form funktionieren würde, ist nicht gesagt – auch nicht, dass das US-Militär oder andere Armeen oder Sicherheitsunternehmen die Software tatsächlich einsetzen würden, zweifelt „t-online“. Dass das US-Militär diese Lösung „zumindest bald testen wird – oder sogar bereits testet – dürfte aber fast sicher sein.“ Berücksichtigt man die schon genannten Fehler bei ChatGPT oder Bang, kann man sich des Eindrucks nicht erwehren, dass hier um des lieben Geschäftes Willen mit Menschenleben gespielt wird.

Qualität nicht vollständig geprüft

„LLMs werden auf der Basis einer sehr großen Menge an Texten trainiert“, bestätigt auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Anfang Mai veröffentlichten Positionspapier. „Der Ursprung dieser Texte und ihre Qualität werden aufgrund der großen Anzahl an Daten nicht vollständig überprüft“, gesteht das BSI. So verblieben „auch Texte mit fragwürdigem Inhalt (z.B. Desinformationen, Propaganda oder Hassnachrichten) in der Trainingsmenge und tragen zu einer unerwünschten Struktur des Modells bei, die eine Neigung zu potenziell kritischen Inhalten zeigt. Diese Einflüsse finden sich trotz diverser Schutzmaßnahmen häufig in sprachlich ähnlicher Weise in den KI-generierten Texten wieder. Dadurch können Kriminelle die Modelle verwenden, um damit die öffentliche Meinung durch automatisch generierte Propagandatexte, Beiträge in Sozialen Medien oder Fake News zu beeinflussen. Durch den geringen Aufwand bei der Erstellung lassen sich diese Texte zudem massenhaft produzieren und verbreiten. Auch die Erzeugung von Hassnachrichten ist denkbar.“

Auf die Gefahren von Seiten einer solchen Technik angesichts einer weit verbreiteten „Internet-Gläubigkeit“ und zunehmenden Kritiklosigkeit wird am Rande immer wieder hingewiesen. KI und Chatbots – mahnt die bereits zitierte SZ – „in einer Zeit einzuführen, in der viel zu viele Menschen alles, was sie im Internet finden, für bare Münze nehmen, ist mindestens bedenklich.“

…nahezu perfekt gefälscht

Die wirklichen Gefahren werden leider oft nur in den Nischen-Medien problematisiert. Bei Twitter hatte die Wissenschaftlerin Ende vergangenen Jahres auf beunruhigende Erkenntnisse hingewiesen: „Heute habe ich ChatGPT zu dem Thema befragt, über das ich meine Doktorarbeit geschrieben habe. Es gab vernünftig klingende Erklärungen und vernünftig aussehende Zitate. So weit, so gut – bis ich die Zitate auf ihre Richtigkeit überprüfte. Und es wurde unheimlich, als ich nach einem physikalischen Phänomen fragte, das es nicht gibt.“ Auf watson.ch wurde dann bilanziert: „Die Künstliche Intelligenz (KI) kann wissenschaftliche Quellenangaben nahezu perfekt fälschen. Und zwar so geschickt, dass selbst Fachleute auf dem entsprechenden Gebiet Mühe bekunden, die entsprechenden Falschinformationen als solche zu erkennen.“

Bei Kindern und vor allem Jugendlichen wird ChatGPT immer mehr in den schulischen oder universitären Alltag einziehen. „Manche Lehrende sorgen sich, dass das Tool dazu einlädt, nicht mehr selbst die Hausaufgaben zu verfassen, nicht mehr kritisch nachzudenken, was wiederum negative Auswirkungen auf den Lernprozess habe“, gibt „DerStandard“ aus Wien zu bedenken. Er verweist darauf, dass in den USA „das Tool bereits in Schulen in New York und Los Angeles verboten“ wurde. Und die „International Conference on Machine Learning … keine wissenschaftlichen Artikel mehr annehmen [wolle], die mit der künstlichen Intelligenz verfasst wurden.“ Der österreichische Bildungsminister Martin Polaschek (ÖVP) sieht dies anders: „Es ist nicht sinnvoll, neue Technologien zu verbieten und die Schule davor abschotten.“

Lernen mit ChatGPT umzugehen

Kritisch abwägend äußerst sich beispielsweise das Ministerium für Kultur, Jugend und Sport in Baden-Württemberg: „Künstliche Intelligenz muss aktiv im Schulunterricht behandelt werden, da die Schülerinnen und Schüler lernen müssen, mit dieser neuen Technologie umzugehen und verstehen sollen, wie die Algorithmen dahinter funktionieren. Es ist auch essenziell, sie darüber aufzuklären, welche Gefahren, aber auch welche Chancen und Vorteile künstliche Intelligenz bietet.“

Aber jedes Unterrichtsfach fängt bei den Lehrkräften an. „Viele Lehrkräfte unterschätzen ChatGPT deutlich, weil sie sich damit noch nicht auskennen“, zitierte im April die „Frankfurter Allgemeine Zeitung“ Florian Nuxoll, Englisch- und Gemeinschaftskundelehrer im baden-württembergischen Tübingen, der einen Teil seiner Arbeitszeit bei den Computerlinguisten an der Uni Tübingen verbringt.

Die KI tangiert inzwischen nahezu alle Lebensbereiche. Das BSI hebt in seinem Positionspapier vor allem vier Felder hervor, bei denen die Anwendung besonders sensibel ist:

  • Gesundheit (z.B. Entscheidungen über Behandlungsmethoden)
  • Finanzen (z.B. Entscheidungen über Kreditvergabe)
  • Justiz (z.B. Entscheidungen über Bewährungsmöglichkeiten)
  • Personal (z.B. Entscheidungen über Bewerbungen).

Daraus ist leicht zu ersehen, dass diese Bereiche zahlreiche Mitarbeiter betreffen können. Bei der Awareness bedeutet somit jede verschenkte Stunde einen gefährlichen Vorsprung für Cyberangreifer.

Beitrag teilen

Über den Autor: Peter Niggl

Peter Niggl, Journalist und Chefredakteur der Fachzeitschrift Security Insight