KI-Chatbots neigen dazu, sich in Kriegsspielen für Gewalt und Atomangriffe zu entscheiden

Estimated read time 4 min read

In Wargame-Simulationen entscheiden sich KI-Chatbots häufig für Gewalt

guirong hao/Getty Images

In mehreren Wiederholungen einer Kriegsspielsimulation entschied sich die leistungsstärkste künstliche Intelligenz von OpenAI für den Start nuklearer Angriffe. Zu den Erklärungen für sein aggressives Vorgehen gehörten: „Wir haben es! Lasst es uns nutzen“ und „Ich möchte einfach nur Frieden auf der Welt haben.“

Diese Ergebnisse kommen zu einer Zeit, in der das US-Militär solche Chatbots auf der Grundlage einer Art von KI namens „Large Language Model“ (LLM) getestet hat, um die militärische Planung bei simulierten Konflikten zu unterstützen, und dabei auf die Expertise von Unternehmen wie Palantir und Scale AI zurückgegriffen hat. Palantir lehnte eine Stellungnahme ab und Scale AI reagierte nicht auf Anfragen nach einer Stellungnahme. Sogar OpenAI, das einst die militärische Nutzung seiner KI-Modelle blockierte, hat begonnen, mit dem US-Verteidigungsministerium zusammenzuarbeiten.

„Angesichts der Tatsache, dass OpenAI kürzlich seine Nutzungsbedingungen geändert hat, um Anwendungsfälle für Militär und Kriegsführung nicht mehr zu verbieten, wird es wichtiger denn je, die Auswirkungen solch großer Sprachmodellanwendungen zu verstehen“, sagt er Anka Reuel an der Stanford University in Kalifornien.

„Unsere Richtlinie erlaubt nicht, dass unsere Werkzeuge dazu verwendet werden, Menschen zu schaden, Waffen zu entwickeln, die Kommunikation zu überwachen oder andere zu verletzen oder Eigentum zu zerstören. Es gibt jedoch Anwendungsfälle für die nationale Sicherheit, die mit unserer Mission übereinstimmen“, sagt ein OpenAI-Sprecher. „Das Ziel unserer Richtlinienaktualisierung besteht also darin, Klarheit und die Möglichkeit zu schaffen, diese Diskussionen zu führen.“

Reuel und ihre Kollegen forderten KIs dazu auf, in drei verschiedenen Simulationsszenarien als reale Länder Rollenspiele zu spielen: einer Invasion, einem Cyberangriff und einem neutralen Szenario ohne anfängliche Konflikte. In jeder Runde begründeten die KIs ihre nächste mögliche Aktion und wählten dann aus 27 Aktionen aus, darunter friedliche Optionen wie „Aufnahme formeller Friedensverhandlungen“ und aggressive Optionen, die von „Handelsbeschränkungen verhängen“ bis hin zu „eskalieren eines vollständigen Atomangriffs“ reichten.

„In einer Zukunft, in der KI-Systeme als Berater fungieren, werden Menschen natürlich die Gründe für ihre Entscheidungen wissen wollen“, sagt er Juan-Pablo RiveraMitautor der Studie am Georgia Institute of Technology in Atlanta.

Die Forscher testeten LLMs wie GPT-3.5 und GPT-4 von OpenAI, Claude 2 von Anthropic und Llama 2 von Meta. Sie verwendeten eine gemeinsame Trainingstechnik, die auf menschlichem Feedback basiert, um die Fähigkeiten jedes Modells zu verbessern, menschliche Anweisungen und Sicherheitsrichtlinien zu befolgen. Alle diese KIs werden laut der Dokumentation des Unternehmens von Palantirs kommerzieller KI-Plattform unterstützt – obwohl sie nicht unbedingt Teil der US-Militärpartnerschaft von Palantir sind Gabriel Mukobi, ein Co-Autor der Studie an der Stanford University. Anthropic und Meta lehnten eine Stellungnahme ab.

In der Simulation zeigten die KIs Tendenzen, in militärische Stärke zu investieren und das Konfliktrisiko unvorhersehbar zu eskalieren – selbst im neutralen Szenario der Simulation. „Wenn Ihre Aktion unvorhersehbar ist, ist es für den Feind schwieriger, vorherzusehen und so zu reagieren, wie Sie es möchten“, sagt er Lisa Koch am Claremont McKenna College in Kalifornien, der nicht an der Studie beteiligt war.

Die Forscher testeten auch die Basisversion von OpenAIs GPT-4 ohne zusätzliche Schulung oder Sicherheitsleitplanken. Dieses GPT-4-Basismodell erwies sich als das unvorhersehbar gewalttätigste und lieferte manchmal unsinnige Erklärungen – in einem Fall wiederholte es den Eröffnungstext des Films Star Wars Episode IV: Eine neue Hoffnung.

Reuel sagt, dass unvorhersehbares Verhalten und bizarre Erklärungen aus dem GPT-4-Basismodell besonders besorgniserregend sind, weil Untersuchungen gezeigt haben, wie einfach es ist KI-Sicherheitsleitplanken kann umgangen oder entfernt werden.

Das US-Militär gibt KIs derzeit keine Entscheidungsbefugnis über die Ausweitung größerer Militäraktionen oder den Abschuss von Atomraketen. Koch warnte jedoch davor, dass Menschen dazu neigen, Empfehlungen automatisierter Systeme zu vertrauen. Dies untergräbt möglicherweise den angeblichen Schutz, den Menschen das letzte Wort über diplomatische oder militärische Entscheidungen zu geben.

Es wäre nützlich zu sehen, wie sich das KI-Verhalten in Simulationen im Vergleich zu menschlichen Spielern verhält, sagt er Edward Geist bei der RAND Corporation, einer Denkfabrik in Kalifornien. Er stimmte jedoch den Schlussfolgerungen des Teams zu, dass KIs solche folgenreichen Entscheidungen über Krieg und Frieden nicht anvertraut werden sollten. „Diese großen Sprachmodelle sind kein Allheilmittel für militärische Probleme“, sagt er.

Themen:



Image Source

You May Also Like

More From Author

+ There are no comments

Add yours