Take-Aways (AI)
  • 61 Daten­schutz­be­hör­den for­dern Schutz­mass­nah­men gegen miss­bräuch­li­che KI-Erzeu­gung rea­li­stisch wir­ken­der Bil­der und inti­mer Darstellungen.
  • Orga­ni­sa­tio­nen müs­sen Trans­pa­renz über Fähig­kei­ten, Schutz­vor­keh­run­gen, erlaub­te Nut­zung und Sank­tio­nen bei Miss­brauch bieten.
  • Recht­li­che Vor­ga­ben: KI-Kenn­zeich­nungs­pflicht im AI Act ab Aug. 2026 und natio­na­le Straf­rechts­in­itia­ti­ven gegen Deepfakes.

Am 23. Febru­ar 2026 haben 61 Daten­schutz­be­hör­den ein­schliess­lich des EDÖB und des EDSA, der CNIL (FR) und des ICO (UK) eine gemein­sa­me Erklä­rung zu AI-gene­rier­ten Bil­dern veröffentlicht:

Die Erklä­rung rich­tet sich an Ent­wick­ler und Betrei­ber gene­ra­ti­ver AI. Hin­ter­grund ist der Umstand, dass es immer ein­fa­cher wird, rea­li­sti­sche Bil­der und Vide­os von Per­so­nen ohne deren Wis­sen zu gene­rie­ren, auch inti­me Dar­stel­lun­gen und dif­fa­mie­ren­de Inhal­te. Die Erklä­rung for­mu­liert des­halb vier Erwar­tun­gen an Orga­ni­sa­tio­nen, die gene­ra­ti­ve AI ent­wickeln oder ein­set­zen:

  • Schutz­mass­nah­men gegen den Miss­brauch von Per­so­nen­da­ten und die Erzeu­gung nicht ein­ver­nehm­li­cher inti­mer Bil­der, ins­be­son­de­re mit Dar­stel­lun­gen von Kindern
  • Trans­pa­renz über Fähig­kei­ten, Schutz­mass­nah­men, zuläs­si­ge Ver­wen­dungs­zwecke und Kon­se­quen­zen bei Miss­brauch der AI
  • Lösch­me­cha­nis­men, damit Betrof­fe­ne die Ent­fer­nung schäd­li­cher Inhal­te rasch ver­lan­gen können
  • Mass­nah­men zum beson­de­ren Schutz von Kindern

Der AI Act ent­hält eine (ab August 2026 anwend­ba­re) Kenn­zeich­nungs­pflicht für Deepf­akes. In Deutsch­land etwa liegt ein Gesetz­ent­wurf für einen neu­en § 201b StGB vor, der Deepf­akes unter Stra­fe stel­len soll:

§ 201b Ver­let­zung von Per­sön­lich­keits­rech­ten durch digi­ta­le Fälschung

(1) Wer das Per­sön­lich­keits­recht einer ande­ren Per­son ver­letzt, indem er einen mit com­pu­ter­tech­ni­schen Mit­teln her­ge­stell­ten oder ver­än­der­ten Medi­en­in­halt, der den Anschein einer wirk­lich­keits­ge­treu­en Bild- oder Ton­auf­nah­me des äuße­ren Erschei­nungs­bil­des, des Ver­hal­tens oder münd­li­cher Äuße­run­gen die­ser Per­son erweckt, einer drit­ten Per­son zugäng­lich macht, wird mit Frei­heits­stra­fe bis zu zwei Jah­ren oder mit Geld­stra­fe bestraft. Glei­ches gilt, wenn sich die Tat nach Satz 1 auf eine ver­stor­be­ne Per­son bezieht und deren Per­sön­lich­keits­recht dadurch schwer­wie­gend ver­letzt wird.

(2) Wer in den Fäl­len des Absat­zes 1 Satz 1 den Medi­en­in­halt der Öffent­lich­keit zugäng­lich macht oder einen Medi­en­in­halt zugäng­lich macht, der einen Vor­gang des höchst­per­sön­li­chen Lebens­be­reichs zum Gegen­stand hat, wird mit Frei­heits­stra­fe bis zu fünf Jah­ren oder mit Geld­stra­fe bestraft.

(3) Absatz 1 Satz 1, auch in Ver­bin­dung mit Absatz 2, gilt nicht für Hand­lun­gen, die in Wahr­neh­mung über­wie­gen­der berech­tig­ter Inter­es­sen erfol­gen, nament­lich der Kunst oder der Wis­sen­schaft, der For­schung oder der Leh­re, der Bericht­erstat­tung über Vor­gän­ge des Zeit­ge­sche­hens oder der Geschich­te oder ähn­li­chen Zwecken dienen.

(4) Die Bild- oder Ton­trä­ger oder ande­re tech­ni­sche Mit­tel, die der Täter oder Teil­neh­mer ver­wen­det hat, kön­nen ein­ge­zo­gen wer­den. § 74a ist anzuwenden.

[Ände­rung von § 205 und der StPO]

In der Schweiz lehn­te der Natio­nal­rat die Moti­on Maha­im (23.3563) zur Regu­lie­rung von Deepf­akes im öffent­li­chen Raum im Mai 2025 ab. Je nach Gegen­stand von Deepf­akes kön­nen aber straf­recht­li­che Bestim­mun­gen, der zivil­recht­li­che Per­sön­lich­keits­schutz, das Lau­ter­keits­recht usw. greifen.