FCC verbietet Robocalls mit Deepfake-Stimmenklonen – doch KI-generierte Desinformation droht immer noch bei Wahlen

Estimated read time 5 min read

Die Federal Communications Commission am 8. Februar 2024, verbotene Robocalls die von künstlicher Intelligenz generierte Stimmen verwenden.

Das 1991 Telefonverbraucherschutzgesetz verbietet künstliche Stimmen in Robocalls. Die FCCs Urteil vom 8. Februar erklärt, dass KI-generierte Stimmen, einschließlich Klone der Stimmen echter Menschen, künstlich und daher gesetzlich verboten sind.

Der Schritt folgt auf einen Robocall am 21. Januar 2024, der wie Präsident Joe Biden aussah. Der Der Anruf hatte Bidens Stimme fordert Wähler, die Biden und die Demokratische Partei unterstützen, auf, nicht an den GOP-Vorwahlen am 23. Januar in New Hampshire teilzunehmen. Der Anruf fälschlicherweise impliziert dass ein registrierter Demokrat bei den republikanischen Vorwahlen wählen könnte und dass ein Wähler, der bei den Vorwahlen gewählt hat, bei den Parlamentswahlen im November nicht wahlberechtigt wäre.

Der Anruf scheint zwei Tage vor der Vorwahl stattgefunden zu haben ein Deepfake mit künstlicher Intelligenz. Das scheint es auch gewesen zu sein ein Versuch, von der Stimmabgabe abzuhalten.

Die FCC und die Generalstaatsanwaltschaft von New Hampshire untersuchen den Anruf. Am 6. Februar 2024 sagte John Formella, Generalstaatsanwalt von New Hampshire identifizierte zwei texanische UnternehmenLife Corp. und Lingo Telecom als Quelle bzw. Sender des Anrufs.

Verwirrung stiften

Robocalls bei Wahlen sind nichts Neues und nicht illegal; Bei vielen handelt es sich lediglich um Versuche, die Wählerstimmen zu erreichen. Sie wurden aber auch in verwendet Wählerunterdrückung Kampagnen. Verschärft wird dieses Problem in diesem Fall durch den Einsatz von KI zum Klonen von Bidens Stimme.

In einem Medienökosystem voller Lärm machen es verschlüsselte Signale wie Deepfake-Robocalls praktisch unmöglich, Fakten von Fälschungen zu unterscheiden.

Die Generalstaatsanwaltschaft von New Hampshire untersucht den Anruf.

In letzter Zeit sind eine Reihe von Unternehmen online aufgetaucht Identitätswechsel als Dienstleistung anbieten. Für Benutzer wie Sie und mich ist es so einfach, einen Politiker, eine Berühmtheit oder eine Führungskraft wie Joe Biden, Donald Trump oder Elon Musk aus einem Menü auszuwählen und ein Skript einzugeben, was sie sagen sollen, und schon erstellt die Website den Deepfake automatisch.

Obwohl die Audio- und Videoausgabe normalerweise abgehackt und gestelzt ist, ist die Audioausgabe über einen Robocall sehr glaubwürdig. Man könnte leicht denken, dass man eine Aufnahme von Joe Biden hört, aber in Wirklichkeit handelt es sich um maschinell erzeugte Fehlinformationen.

Der Kontext ist der Schlüssel

Ich bin ein Medien- und Desinformationswissenschaftler. Im Jahr 2019 Informatiker Brit Paris und ich untersuchte, wie gegnerische Netzwerke generativ sind – was die meisten Menschen heute als KI bezeichnen – würde die Art und Weise verändern, wie Institutionen Beweise bewerten und Entscheidungen treffen, wenn sie realistisch wirkende Audio- und Videomanipulationen beurteilen. Wir haben herausgefunden, dass kein einzelnes Medium auf den ersten Blick zuverlässig ist; Vielmehr kommt es bei der Interpretation auf den Kontext an.

Wenn es um KI-gestützte Desinformation geht, hängt die Glaubwürdigkeit von Deepfakes davon ab, wo man sie sieht oder hört oder wer sie teilt. Ohne eine gültige und bestätigte Quelle, die dies als Tatsache bestätigt, könnte ein Deepfake interessant oder lustig sein, wird aber vor Gericht niemals bestehen. Allerdings können Deepfakes immer noch schädlich sein, wenn sie dazu dienen, die Abstimmung zu unterdrücken oder die öffentliche Meinung zu spaltenden Themen zu beeinflussen.

KI-gestützte Desinformationskampagnen sind schwer zu bekämpfen, da zur Enttarnung der Quelle die Spur der Metadaten, also der Daten über ein Medium, verfolgt werden muss. Wie dies geschieht, hängt von der Art der Verbreitung ab: Robocalls, soziale Medien, E-Mail, SMS oder Websites. Derzeit ist die Erforschung von Audio- und Videomanipulation schwieriger, da viele große Technologieunternehmen den Zugriff auf ihre Anwendungsprogrammierschnittstellen gesperrt haben, die es Forschern ermöglichen, Daten über soziale Medien zu sammeln, und die Unternehmen dies getan haben haben ihre Vertrauens- und Sicherheitsteams entlassen.

Pünktliche, genaue Ortskenntnis

In vielerlei Hinsicht werfen KI-gestützte Desinformation wie der Robocall in New Hampshire die gleichen Probleme auf wie jede andere Form der Desinformation. Menschen, die KI nutzen, um Wahlen zu stören, tun wahrscheinlich ihr Möglichstes, um ihre Spuren zu verwischen. Aus diesem Grund muss die Öffentlichkeit gegenüber Behauptungen, die nicht aus verifizierten Quellen stammen, wie lokalen Fernsehnachrichten oder Social-Media-Konten, skeptisch bleiben seriöse Nachrichtenorganisationen.

Für die Öffentlichkeit ist es auch wichtig zu verstehen, wozu neue Audio- und visuelle Manipulationstechnologien in der Lage sind. Jetzt, da die Technologie allgemein verfügbar ist und ein entscheidendes Wahljahr bevorsteht, ist der gefälschte Biden-Robocall nur die jüngste einer Reihe wahrscheinlich KI-gestützter Desinformationskampagnen, auch wenn diese Anrufe inzwischen ausdrücklich illegal sind.

Ich glaube, dass die Gesellschaft lernen muss, das zu schätzen, was ich TALK nenne: zeitnahes, genaues, lokales Wissen. Ich glaube, dass es wichtig ist, Social-Media-Systeme zu entwerfen, die zeitnahes, genaues und lokales Wissen über Störungen und Spaltungen stellen.

Es ist auch wichtig, es Desinformanten zu erschweren, von der Untergrabung der Demokratie zu profitieren. Beispielsweise sollte der böswillige Einsatz von Technologie zur Unterdrückung der Wahlbeteiligung von den Strafverfolgungsbehörden des Bundes und der Bundesstaaten eingehend untersucht werden.

Während Deepfakes Menschen überraschen können, sollten sie uns nicht überraschen, egal wie langsam die Wahrheit im Vergleich zur Geschwindigkeit der Desinformation ist.

Dies ist eine aktualisierte Version eines Artikels, der ursprünglich am 23. Januar 2024 veröffentlicht wurde.



Image Source

You May Also Like

More From Author

+ There are no comments

Add yours