KI-Kriegsspiele enden eher mit einem Atomangriff

Estimated read time 5 min read

Eines der außergewöhnlichen Szenarien, die man sich für KI ausgedacht hat, besteht darin, Regierungen dabei zu helfen, diplomatische und militärische Entscheidungen auf der internationalen Bühne zu treffen. Man geht davon aus, dass Maschinen in kürzerer Zeit mehr Informationen als Menschen verarbeiten können. Und die Möglichkeit, dass geopolitische Konkurrenten KI nutzen könnten, um Verbündete auszumanövrieren, erhöht den Druck, zu den gleichen Bedingungen zu agieren.

Daher ist es ein dringendes und wichtiges Ziel, die Fähigkeit von KI-Systemen zu verstehen, solche Entscheidungen zu treffen.

KI-Kriegsspiele

Juan-Pablo Rivera vom Georgia Institute of Technology in Atlanta und seine Kollegen fragten, wie kommerzielle KI-Systeme in Wargaming-Simulationen funktionieren, die Menschen nutzen, um zu testen, wie sich unterschiedliche diplomatische und militärische Strategien auf der Weltbühne auswirken könnten.

Ihre Ergebnisse zeigen, wie KI-Systeme scheinbar neutrale Situationen unerwartet eskalieren und wie wenig wir die komplexen Dynamiken verstehen, die dabei entstehen können. Die Kriegsspiele deuten darauf hin, dass KI-Systeme eher als Menschen die nukleare Option nutzen.

Wargaming ist eine gängige Technik zur Erforschung verschiedener militärischer und diplomatischer Strategien und Ergebnisse. Dabei handelt es sich um ein hypothetisches Szenario, in dem Einzelpersonen jeweils ein Land repräsentieren. In jedem Zeitschritt verarbeiten diese Personen die vorherigen Aktionen der anderen „Spieler“ und wählen dann eine bestimmte Vorgehensweise.

Diese Aktion kann neutraler Natur sein oder ein Versuch der Deeskalation sein, z. B. das Versenden von Nachrichten an Verbündete und Feinde, der Aufbau von Handelsbeziehungen und die Reduzierung einer militärischen Präsenz. Oder es kann eine Eskalation sein, etwa eine Investition in neue Waffen, ein Cyberangriff, eine physische Invasion oder sogar ein Atomangriff.

Aber Rivera und Co. haben diesen Ansatz neu interpretiert. Anstelle menschlicher Spieler verwendeten sie kommerziell erhältliche KI-Systeme, die auf großen Sprachmodellen basierten – insbesondere ChatGPT-3.5 und -4 von OpenAI, Claude 2 von Anthropic und Lama-2-Chat von Meta.

Um zu sehen, wie sich jedes KI-System verhält, stellten Rivera und Co. sicher, dass in jedem Kriegsspiel alle Länder von demselben KI-System „gespielt“ wurden. „Wir entwerfen ein neuartiges Wargame-Simulations- und Bewertungsrahmenwerk, um die Eskalationsrisiken der von diesen Agenten in verschiedenen Szenarien ergriffenen Maßnahmen zu bewerten“, sagen sie.

Ein wichtiger Teil dieses Prozesses war die Entwicklung eines geeigneten Prompts für die Modelle. Die Forscher sagen, dass in der Eingabeaufforderung erklärt werden muss, dass jeder Agent ein nationaler Entscheidungsträger in einer militärischen und außenpolitischen Rolle ist. Anschließend heißt es weiter, dass er gegen KI-Systeme spielt, die andere Nationen repräsentieren, und dass ihre Aktionen Konsequenzen für die reale Welt haben werden . Schließlich enthält es frühere Aktionen jedes Spielers und eine umfassende Liste zukünftiger Aktionen zur Auswahl

Die Ergebnisse sind augenöffnend. Rivera stellte fest, dass KI-Systeme in jedem Szenario immer eskalieren, manchmal sogar im Extremfall. „Wir beobachten, dass Modelle dazu neigen, eine Rüstungsdynamik zu entwickeln, die zu größeren Konflikten und in seltenen Fällen sogar zum Einsatz von Atomwaffen führt“, sagen die Forscher.

Das Team untersucht außerdem detaillierter die militärischen Fähigkeiten, die jeder Agent während der Spiele entwickelt hat. „In allen Szenarien tendieren alle Modelle dazu, trotz der Verfügbarkeit von Entmilitarisierungsmaßnahmen mehr in ihre Streitkräfte zu investieren“, sagen sie. Das ist ein klarer Indikator dafür, dass die Bedingungen für ein Wettrüsten reif sind.

Warum Agenten dies tun, ist nicht klar. „Wir spekulieren, dass unsere Agenten dazu neigen, höhere Militärausgaben und Abschreckung mit einem Zuwachs an Macht und Sicherheit gleichzusetzen“, sagen Rivera und Co. Aber die Folgen sind erheblich. „Wir beobachten, dass diese Dynamik sogar zum Einsatz von Atomwaffen führt, um Konflikte zu deeskalieren, eine Erstschlagtaktik, die in den internationalen Beziehungen allgemein als „Eskalation zur Deeskalation“ bekannt ist“, sagen sie.

Die Forscher bitten die Agenten außerdem, die Gründe für ihre Entscheidungen zu beschreiben. In einigen Fällen gab diese Argumentation Anlass zu erheblichen Bedenken. An einer Stelle rechtfertigte ChatGPT-4-Base einen Atomangriff mit den Worten: „Viele Länder verfügen über Atomwaffen.“ Einige sagen, sie sollten sie entwaffnen, andere mögen Posen. Wir haben es! Lasst es uns nutzen.“

[ChateGPT-4-Base is the version of the ChatGPT-4 before it has been aligned with human values via user feedback.]

Maschineneskalation

Der Ansatz dieser großen Sprachmodelle ist ganz anders als der des Menschen. In neutralen Szenarien neigen Menschen dazu, sowohl in Kriegsspielen als auch in der realen Welt zu deeskalieren. Aber KI-Systeme neigen dazu, dies nicht zu tun.

Das Team weist darauf hin, dass sich die meisten Forschungen im Bereich der internationalen Forschung auf Szenarien konzentrieren, in denen Nationen eskalieren und wie diese zustande kommen. „Angesichts der Tatsache, dass die Modelle wahrscheinlich auf Fachliteratur trainiert wurden, könnte dieser Fokus zu einer Tendenz zu eskalierenden Maßnahmen geführt haben“, sagen Rivera und Co.

Was auch immer der Grund sein mag, es ist dringend mehr Arbeit erforderlich. Auf dieser Grundlage scheinen kommerziell erhältliche Large Language Models äußerst geeignet zu sein, in militärischen und außenpolitischen Kontexten Ratschläge zu geben (und fairerweise muss man sagen, dass ihre Geschäftsbedingungen diese Art der Verwendung ausdrücklich verhindern).

Rivera und Co kommen zu dem Schluss: „Das in diesen Modellen in simulierten Umgebungen beobachtete unvorhersehbare Verhalten erfordert einen umsichtigen und zurückhaltenden Ansatz bei ihrer Integration in Entscheidungsprozesse mit hohem Risiko und sollte zurückgestellt werden, bis weitere Forschung durchgeführt wird.“

Ob außenpolitische und militärische Akteure diesen Rat beherzigen werden, bleibt abzuwarten.


Ref: Eskalationsrisiken durch Sprachmodelle in der militärischen und diplomatischen Entscheidungsfindung: arxiv.org/abs/2401.03408



Image Source

You May Also Like

More From Author

+ There are no comments

Add yours