10.03.2025 Newsletter

Der Schutz der eigenen Stimme in Zeiten von KI Voice Cloning

Voice Cloning als neues Problem

Durch KI imitierte Stimmen – sog. „Voice Cloning“ oder „Deepfake Audio“ – finden sich zunehmend im Internet. Dabei genügt mittlerweile bereits Sprachmaterial von wenigen Minuten, um Stimmen täuschend echt zu imitieren. Mit weiterem Fortschritt in der KI-Technik wird es immer schwerer, zwischen Original und Nachahmung bei Audiodateien unterscheiden zu können.

Durch Voice Cloning können Personen beliebige Inhalte untergeschoben werden – ein enormes Missbrauchspotenzial als neues Problemfeld: Neben der dadurch ermöglichten Täuschung Dritter steht auch das Ansehen der betroffenen Person auf dem Spiel. Zudem können wirtschaftliche Interessen – etwa die von professionellen Synchronsprechern, Musikern, Schauspielern oder Podcastern – erheblich beeinträchtigt werden. Die Notwendigkeit eines wirksamen rechtlichen Schutzes der eigenen Stimme ist daher evident.

Schutz vor KI-Verwertung von Stimmaufnahmen

Der Schutz vor unautorisierten Tonaufnahmen sowie deren Veröffentlichung ist allgemein anerkannt, lässt sich allerdings nicht ohne Weiteres auf Voice Cloning übertragen.

Denn: Das deutsche Urheberrecht greift für KI-Neuschöpfungen wie Voice Cloning grundsätzlich nicht. Nur die zugrundeliegenden Originalaufnahmen können urheberrechtlich geschützte Werke darstellen.

Während etwa in Tennessee, USA seit Mitte 2024 durch den sog. ELVIS Act ein Schutz vor kommerziellem Missbrauch KI-simulierter Stimmen besteht, fehlen entsprechende Regelungen bislang im deutschen und europäischen Raum. Mit der EU-Verordnung 2024/1689 (AI Act) wird allerdings eine Kennzeichnungspflicht für KI-generierte Inhalte eingeführt.

Trotzdem genießt die Stimme in Deutschland rechtlichen Schutz, insbesondere über die Datenschutzgrundverordnung sowie das Allgemeine Persönlichkeitsrecht (APR) und § 823 Abs. 1 BGB.

Schutz der eigenen Stimme als Teil des APR über § 823 BGB

Der Rückgriff auf das Allgemeine Persönlichkeitsrecht aus Art. 1 Abs. 1, Art. 2 Abs. 1 GG („APR“) kann über § 823 Abs. 1 BGB Imitierten Schutz bieten.

Das APR aus Art. 1 Abs. 1, Art. 2 Abs. 1 GG i.V.m. § 823 BGB schützt neben dem Recht am eigenen Bild auch das Recht an der eigenen Stimme als Wiedererkennungsmerkmal einer Person. Dies erkannte der BGH bereits im „Marlene-Dietrich-Urteil“ (BGH, Az. I ZR 49/97) ausdrücklich an.

Das APR schützt Imitierte dabei sowohl vor Eingriffen in die persönliche Ehre – z. B. durch eine Imitation, die den eigenen ideellen Werten entgegensteht – als auch vor wirtschaftlicher Ausbeutung. Bereits 1989 stellte das OLG Hamburg (Az. 3 W 45/89) klar, dass auch die wirtschaftliche Imitation einer Stimme – etwa zu Werbezwecken – unzulässig sein kann.

Schutz durch Kommerzialisierung der eigenen Stimme über Lizenzverträge

Ein weiterer Schutzansatz liegt in der aktiven Kommerzialisierung der eigenen Stimme: So bietet etwa die kanadische Sängerin Grimes Dritten eine Lizenz zur Nutzung ihrer KI-generierten Stimme gegen Umsatzbeteiligung an – eine Alternative zum Voice Cloning.

Schutzumfang, Fazit und Ausblick

Stimmen sind keine frei verfügbaren Daten. Sie unterliegen sowohl dem Persönlichkeits- als auch dem Datenschutzrecht. Welches Schutzregime im Einzelfall greift, hängt von der Art der Verletzung ab. Der Schutzumfang ist jedoch weitgehend gleich.

Für Betroffene gilt: Sobald eine Stimme ohne Zustimmung verarbeitet, nachgeahmt oder veröffentlicht wird, kann die unberechtigte Nutzung untersagt werden sowie auf Löschung der Daten bestehen und Auskunft über die Verarbeitung verlangen. Bei Persönlichkeitsrechtsverletzungen kommen zudem zivilrechtliche Ansprüche auf Unterlassung und Schadensersatz in Betracht. Problematisch bleibt die Rechtsdurchsetzung – vor allem, wenn die Stimmimitation bereits veröffentlicht wurde. Die Rückverfolgung zum Ursprung im Internet gestaltet sich häufig schwierig.

Für Unternehmen, die Voice Cloning einsetzen wollen, gilt: Die Einhaltung datenschutz- und persönlichkeitsrechtlicher Vorgaben ist unerlässlich. Vor jeder Nutzung einer Stimme, sei es für das Training eines KI-Modells oder die Veröffentlichung von Stimmimitationen, ist eine Einwilligung der betroffenen Person einzuholen. Diese muss spezifisch für den jeweiligen Zweck gelten und jederzeit widerrufbar sein. Anderenfalls können empfindliche Bußgelder drohen.

Zurück zur Übersicht

Dr. Patric Mau

Dr. Patric Mau

AssociateRechtsanwalt

Konrad-Adenauer-Ufer 23
50668 Köln
T +49 (0) 221 2091 439
M +49 15112976728

E-Mail