Washington. Durch Künstliche Intelligenz erzeugte Stimmen können täuschend echt lebende Vorbilder nachahmen. Das Thema wird zur Wahl extrem brisant

Das Thema nimmt gerade an Fahrt auf. Nun versuchen amerikanische Behörden mit harten Bandagen Missbrauch zu unterbinden: Künstliche Intelligenz ist in der Lage, Stimmen nach lebenden Vorbildern zu modellieren und täusched echt nachzuahmen. Das aktiviert natürlich kriminelle Energie, wie ein prominenter Fall aus den USA gerade zeigt. Dem Urheber eines gefälschten Wahlkampf-Anrufs mit der Stimme von US-Präsident Joe Biden droht eine Millionenstrafe. Die US-Telekomaufsicht FCC will für den dahinter steckenden Politikberater eine Strafe von sechs Millionen Dollar (rund 5,5 Mio Euro) verhängen. Bei dem automatisierten Anruf mit einer täuschend echt klingenden Stimme Bidens wurden Wähler im Bundesstaat New Hampshire im Januar aufgerufen, nicht an der anstehenden Vorwahl seiner Demokratischen Partei teilzunehmen. 

'Hauptstadt Inside von Jörg Quoos, Chefredakteur der FUNKE Zentralredaktion

Hinter den Kulissen der Politik - meinungsstark, exklusiv, relevant.

Mit meiner Anmeldung zum Newsletter stimme ich der Werbevereinbarung zu.

Solche sogenannten Robocalls sind ein gängiges Wahlkampf-Instrument in den USA. Die Absender-Informationen bei den Anrufen wurden ebenfalls gefälscht, sodass sie von einem politischen Komitee der Demokraten zu kommen schienen. Gegen einen Telekommunikations-Anbieter, der an der Verbreitung der Anrufe beteiligt war, will die FCC laut am Donnerstag veröffentlichten Unterlagen eine Strafe von zwei Millionen Dollar verhängen. 

KI-generierte Fälschungen können Wahlen beeinflussen

Der automatisierte Anruf mit Bidens gefälschter Stimme bestätigt die Prognosen, KI könnte vor der Präsidentenwahl im November noch häufiger missbraucht werden. 

Nach dem Schreck stärkte die US-Regierung den rechtlichen Rahmen für das Vorgehen gegen solchen KI-Fakes. Die FCC hielt fest, dass für Anrufe mit von Künstlicher Intelligenz generierten Stimmen die vorherige Zustimmung der Empfänger unerlässlich sei. Auch müssten sich die Urheber solcher Anrufe klar zu erkennen geben.

Lesen Sie auch: Interpol warnt: So gerissen nutzen Kriminelle die Künstliche Intelligenz

Scarlett Johansson wütend über Ähnlichkeit einer ChatGPT-Stimme

In einem anders, aber ähnlich gelagerten Fall hatte Hollywood-Star Scarlett Johansson kürzlich dem ChatGPT-Erfinder OpenAI vorgeworfen, eine von der Firma präsentierte KI-Stimme ähnele ihrer eigenen sehr - ob wohl sie es zuvor abgelehnt hatte, für das Projekt zur Verfügung zu stehen. OpenAI konterte, dass die Basis für die KI-Stimme von einer anderen Schauspielerin eingesprochene Sätze gewesen seien - und sie auch nie wie Johansson habe klingen sollen.  Die Stimme namens „Sky“ sei nun vorläufig aus dem ChatGPT-Programm ausgemustert worden.

Johansson schilderte in einer Erklärung, OpenAI-Chef Sam Altman habe ihr bereits im September angeboten, ihre charakteristische Stimme als Basis für die KI-Stimme von ChatGPT zu nutzen. Nach reiflicher Überlegung habe sie aber aus persönlichen Gründen abgelehnt. Das Angebot hat eine Vorgeschichte: Johansson hatte vor gut einem Jahrzehnt im Film „Her“ die Sprechrolle einer KI-Software übernommen, in die sich der von Joaquin Phoenix gespielte Protagonist verliebt. Nach einer Demonstration am Montag vergangener Woche, bei der die neuen Fähigkeiten von ChatGPT öffentlich präsentiert wurden, gab Altman selbst den Hinweis auf Johannson und schrieb auf der Online-Plattform X, die Software sei wie KI aus Kinofilmen - und versah seine Botschaft mit dem Wort „her“.

Am Ende geht es um den Schutz des Individuums vor der Technik

Johansson schrieb am Montag, sie sei „schockiert und wütend“ gewesen, als sie die KI-Stimme aus der OpenAI-Vorführung gehört habe. Eine Klärung der Umstände sei wichtig. Gerade in Zeiten, in denen die Gesellschaft mit täuschend echten Deepfakes konfrontiert sei, brauche es Transparenz und wirksame Gesetze, um das Persönlichkeitsrecht des Einzelnen zu schützen. Es gehe „um den Schutz unseres Ebenbilds, unserer eigenen Arbeit, unserer eigenen Identitäten“. (ftg/dpa)