Von Anne-Sophie Morand und David Vasella

Im Zusam­men­hang mit der rasant fort­schrei­ten­den Ent­wick­lung im Bereich der künstlichen Intel­li­genz (KI) wächst in Unter­neh­men der Bedarf an Struk­tu­ren und Pro­zes­sen, die einen siche­ren, ver­ant­wor­tungs­vol­len und recht­lich kor­rek­ten Umgang mit KI-Tech­no­lo­gie zu gewährleisten hel­fen. Dabei kommt der “AI Gover­nan­ce” eine zen­tra­le Rol­le zu. Eine funk­tio­nie­ren­de AI Gover­nan­ce stellt für Unter­neh­men zwar – wie jede Gover­nan­ce – eine Her­aus­for­de­rung dar, ist aber nicht nur not­wen­dig zur Redu­zie­rung von Risi­ken, son­dern auch eine Chan­ce, die den Weg für eine risikoadäquate Inno­va­ti­on ebnet.

Was ist “AI Governance”?

Der Begriff “Gover­nan­ce” (zu Deutsch: Steue­rung, Führung) bezeich­net ein Steue­rungs- und Rege­lungs­sy­stem und meint den Ord­nungs­rah­men, der erfor­der­lich ist, um ein Unter­neh­men zu lei­ten und sei­ne Tätigkeiten zu überwachen.

Im Kon­text von KI bezieht sich “AI Gover­nan­ce” auf die­sen Steue­rungs­rah­men für KI, d.h. auf die Ent­wick­lung und Umset­zung orga­ni­sa­to­ri­scher Mass­nah­men, Pro­zes­se, Kon­trol­len und Hilfs­mit­tel, die dazu bei­tra­gen, die Ver­wen­dung von KI vertrauenswürdig, ver­ant­wor­tungs­voll, ethisch, recht­lich zulässig und effi­zi­ent zu gestalten.

Die AI Gover­nan­ce ist in der Regel Teil der all­ge­mei­nen Gover­nan­ce-Land­schaft eines Unter­neh­mens und oft­mals eng mit der “Data Gover­nan­ce” ver­floch­ten, also dem par­al­le­len oder überschneidenden Rah­men für die Steue­rung des Umgangs mit Per­so­nen- und ande­ren Daten und Infor­ma­tio­nen. Sie ist aber den­noch ein eige­ner Bereich. Data Gover­nan­ce kon­zen­triert sich auf den Umgang mit Daten, während AI Gover­nan­ce die beson­de­ren Her­aus­for­de­run­gen von KI-Tech­no­lo­gie berücksichtigt. Zudem sind Daten rela­tiv sta­tisch, während KI-Syste­me ler­nen und sich wei­ter­ent­wickeln. Die tra­di­tio­nel­le Data Gover­nan­ce kann einen ethi­schen und rechts­kon­for­men Ein­satz von KI daher kaum gewährleisten.

In ihrem Anwen­dungs­be­reich umfasst eine AI Gover­nan­ce in der Regel fol­gen­de Aspekte:

  • Ein­kauf, Betrieb und Ver­wen­dung von KI-Syste­men: Was ein KI-System ist, legt im Anwen­dungs­be­reich der Euro­päi­schen KI-Ver­ord­nung (AI Act) ihr Art. 3 Abs. 1 fest. Trotz der Leit­li­ni­en der EU-Kom­mis­si­on zum Begriff des KI-Systems ist indes­sen wei­ter­hin unklar, wann ein halb­wegs intel­li­gen­tes System die Schwel­le zum KI-System überschreitet (dazu unse­re FAQ). Des­halb soll­te der Anwen­dungs­be­reich der AI Gover­nan­ce nicht zu eng gezo­gen wer­den, was die FINMA in ihrer “Auf­sichts­mit­tei­lung 08/2024 – Gover­nan­ce und Risi­ko­ma­nage­ment beim Ein­satz von Künstlicher Intel­li­genz” auch betont hat;
  • Ent­wick­lung und Ver­kauf von KI-Syste­men; und
  • Ent­wick­lung und Ver­kauf von Gene­ral Pur­po­se AI Models: Ein Gene­ral Pur­po­se AI Model (GPAIM) ist nicht das­sel­be wie ein KI-System und wird in der KI-Ver­ord­nung der EU getrennt adres­siert. Ein GPAIM („KI-Modell mit all­ge­mei­nem Ver­wen­dungs­zweck“) ist ein KI-Modell, das all­ge­mein ver­wend­bar ist, das breit ein­setz­bar ist und das in nach­ge­la­ger­te Syste­me inte­griert wer­den kann (Art. 3 Nr. 63 AI Act). Ein Bei­spiel ist das Modell “GPT‑4” von Ope­nAI. Das KI-System wäre in die­sem Fall “ChatGPT”.

Unter­neh­men kön­nen sich dabei auch auf den ISO-Stan­dard 42001:2023Infor­ma­ti­on tech­no­lo­gy — Arti­fi­ci­al intel­li­gence — Manage­ment system” stüt­zen. Der Stan­dard defi­niert Anfor­de­run­gen an ein KI-Manage­ment­sy­stem (AIMS) und unter­stützt bei einer syste­ma­ti­schen Ent­wick­lung, Bereit­stel­lung und Nut­zung von KI-Syste­men, und eine AI Gover­nan­ce nach die­sem Stan­dard lässt sich eher mit bestehen­den Manage­ment­sy­ste­men z.B. für Qua­li­tät (ISO 9001), Infor­ma­ti­ons­si­cher­heit (ISO 27001) oder Daten­schutz (ISO 27701) inte­grie­ren (ISO 42001, Annex D).

Die Nut­zung von KI-Tools (z.B. ChatGPT, Whisper, Clau­de, Per­ple­xi­ty, Note­book­LM, Gemi­ni usw.) durch Mit­ar­bei­ten­de bei der Arbeit, aber in pri­va­ter Eigen­schaft, auf pri­va­te Initia­ti­ve oder mit pri­va­ten Lizen­zen ist ein The­ma, das geson­dert behan­delt wer­den muss. Eine sol­che Ver­wen­dung von KI-Tools durch Mit­ar­bei­ten­de wird in der Regel über bestehen­de, inter­ne ICT-Richt­li­ni­en gere­gelt. Unter­neh­men ver­bie­ten oft­mals einen sol­chen Ein­satz oder geben zumin­dest vor, wel­che Daten Mit­ar­bei­ten­de in die­se Tools ein­spei­sen dürfen und wel­che nicht. Dabei ist ins­be­son­de­re zu beach­ten, dass die Anbie­ter der Tools in die­sem Fall nicht als Auf­trags­be­ar­bei­te­rin­nen, son­dern als Ver­ant­wort­li­che agie­ren und ent­spre­chend gro­sse Frei­heit beim Umgang mit ein­ge­ge­be­nen Daten haben. Bei Unter­neh­mens­li­zen­zen wer­den die Anbie­te­rin­nen demgegenüber – wenn auch nicht aus­nahms­los – als Auf­trags­be­ar­bei­te­rin­nen tätig und inso­weit unter der Kon­trol­le des Unternehmens.

War­um braucht ein Unter­neh­men eine AI Governance?

Aus Sicht eines Unter­neh­mens spre­chen ver­schie­de­ne Gründe für die Imple­men­tie­rung einer AI Governance.

Ein­hal­tung regu­la­to­ri­scher Anforderungen

Im Digi­tal­be­reich tre­ten welt­weit anspruchs­vol­le regu­la­to­ri­sche Anfor­de­run­gen in Kraft. Beson­ders kom­plex, poten­zi­ell ein­schnei­dend, in der Anwen­dung oft­mals unklar und mit ihrer extra­ter­ri­to­ria­len Wir­kung auch für Unter­neh­men in der Schweiz von Rele­vanz ist der AI Act. Er ver­folgt bekannt­lich einen risi­ko­ab­ge­stuf­ten Ansatz, indem sie unter­schei­det zwi­schen ver­bo­te­nen Prak­ti­ken (das sind vor allem Anwen­dun­gen, die ein ver­ant­wor­tungs­vol­les Unter­neh­men auch von sich aus unter­las­sen würde), den Hoch­ri­si­ko-Syste­men (bspw. beim Ein­satz im Arbeits­kon­text oder bei der Bonitätsprüfung), den begrenz­ten Risi­ken (wie bspw. bei Chat­bots) und son­sti­gen Anwen­dun­gen mit mini­ma­len Risiken.

Unter­neh­men mit Sitz in der Schweiz sind von ihrem ter­ri­to­ria­len Anwen­dungs­be­reich erfasst,

  • wenn sie in der Rol­le als Anbie­ter (“Pro­vi­der”) KI-Syste­me in der EU in Ver­kehr brin­gen oder in Betrieb neh­men, oder
  • wenn sie Anbie­ter oder Betrei­ber (“Deployer”) eines KI-Systems sind und die vom KI-System her­vor­ge­brach­te Aus­ga­be (“Out­put”) in der EU ver­wen­den. Wann das der Fall ist, ist weit­ge­hend unklar; die Ver­wen­dung von Out­put in der EU dürfte aber eine gewis­se Absicht oder Aus­rich­tung vor­aus­set­zen, zugleich aber auch den Fall erfas­sen, dass sich ein KI-System rele­vant auf Per­so­nen in der EU auswirkt.

Der Bun­des­rat hat­te im Novem­ber 2023 beim UVEK (BAKOM) und beim EDA (bei der Abtei­lung Euro­pa) eine Aus­le­ge­ord­nung zur mög­li­chen Regu­lie­rung von KI in Auf­trag gege­ben, die als Ent­scheid­grund­la­ge für das wei­te­re Vor­ge­hen die­nen sol­le. Die­se Aus­le­ge­ord­nung wur­de am 12. Febru­ar 2025 zusam­men mit dem Ent­scheid des Bun­des­ra­tes, wie er das The­ma KI regu­la­to­risch anpacken möch­te, publi­ziert. Wie zu erwar­ten war, will der Bun­des­rat kei­ne schwei­ze­ri­sche KI-Ver­ord­nung – er hat ver­brei­te­te Beden­ken auf­ge­nom­men, dass eine sol­che Rege­lung zu hohem Auf­wand füh­ren dürf­te. Er hat sich aber für die Umset­zung der KI-Kon­ven­ti­on des Euro­pa­ra­tes ent­schie­den und die­se am 27. März 2025 unter­zeich­nen las­sen.

Das ist nicht über­ra­schend: Die KI-Kon­ven­ti­on wur­de von der Schweiz unter ihrem Vor­sitz mass­geb­lich mit­ent­wickelt. Sie

  • ist das welt­weit erste, für Ver­trags­par­tei­en ver­bind­li­che zwi­schen­staat­li­che Abkom­men zu KI und ist nun ins schwei­ze­ri­sche Recht zu über­neh­men, wobei die Umset­zung gro­ssen Spiel­raum lässt;
  • rich­tet sie sich pri­mär an staat­li­che Akteu­re. Pri­va­te Akteu­re wer­den nur erfasst, soweit eine direk­te oder indi­rek­te hori­zon­ta­le Wir­kung unter Pri­va­ten ent­fal­ten. Bei­spie­le sind die Pflicht zur Lohn­gleich­heit im Arbeits­ver­hält­nis oder die Bestim­mun­gen zur Rassendiskriminierung.

Vie­le Berei­che wer­den indes nicht betrof­fen sein. Der Bun­des­rat will aber dort, wo Geset­zes­an­pas­sun­gen not­wen­dig sind, mög­lichst sek­to­ri­el­le und tech­no­lo­gie­neu­tra­le Anpas­sun­gen. All­ge­mei­ne, sek­tor­über­grei­fen­de Regu­lie­rung soll nur in zen­tra­len, grund­rechts­re­le­van­ten Berei­chen erlas­sen wer­den, z.B. im Daten­schutz­recht. Flan­kiert wer­den soll die Rati­fi­ka­ti­on der KI-Kon­ven­ti­on sodann durch recht­lich nicht ver­bind­li­che Mass­nah­men, z.B. Selbst­de­kla­ra­ti­ons­ver­ein­ba­run­gen und Branchenlösungen.

Der Bun­des­rat hat dem EJPD den Auf­trag erteilt, mit dem UVEK und dem EDA bis Ende 2026 eine Ver­nehm­las­sungs­vor­la­ge für die Umset­zung der KI-Kon­ven­ti­on vor­zu­le­gen. Gleich­zei­tig soll ein Plan für die wei­te­ren, recht­lich nicht ver­bind­li­chen Mass­nah­men erar­bei­tet wer­den. Hier liegt die Feder­füh­rung beim UVEK. Es ist also abzu­se­hen, dass auch in der Schweiz zusätz­li­che Regeln gel­ten wer­den, stel­len­wei­se über­grei­fend, sonst punk­tu­ell und zusätz­lich zum bestehen­den Rechts­rah­men, der auch auf KI anwend­bar ist, wie der EDÖB zurecht fest­ge­hal­ten hat.

Zu die­sen Rege­lun­gen kommt das bestehen­de Recht, das auf den Ein­satz von KI anwend­bar bleibt, bspw. Rege­lun­gen des Datenschutz‑, des Arbeits‑, des Urhe­ber- oder des Lauterkeitsrechts.

Nicht zu ver­ges­sen sind sodann ESG-Aspek­te. ESG-Prin­zi­pi­en in die AI Gover­nan­ce ein­zu­bin­den kann dabei unter­stüt­zen, Aspek­te des Umwelt­schut­zes, der sozia­len Ver­ant­wor­tung und der trans­pa­ren­te Unter­neh­mens­füh­rung bei der Ent­wick­lung und der Ver­wen­dung von KI zu berück­sich­ti­gen. Der AI Act ent­hält dazu kei­ne Vor­ga­ben mehr, im Unter­schied zu Ent­wurfs­fas­sun­gen, die noch Umwelt­ver­träg­lich­keits­prü­fun­gen und eine Bericht­erstat­tung über Ener­gie­ver­brauch ver­langt hat­ten. ISO 42001 ver­langt aber eine Prü­fung, ob der Kli­ma­wan­del für ein Unter­neh­men ein rele­van­tes The­ma ist und nennt Umwelt­aus­wir­kun­gen als poten­zi­el­les Orga­ni­sa­ti­ons­ziel (Annex C.2.4).

Eine funk­tio­nie­ren­de AI Gover­nan­ce kann Unter­neh­men vor die­sem Hin­ter­grund unterstützen, sowohl den aktu­el­len als auch den künftigen gesetz­li­chen Anfor­de­run­gen gerecht zu wer­den. Die­se rela­ti­ve Sicher­heit ist eine Vor­aus­set­zung für einen effi­zi­en­ten Ein­satz von KI im Unternehmen.

Ver­trau­ens­bil­dung

Ver­trau­en ersetzt Unsi­cher­hei­ten durch Annah­men und redu­ziert dadurch Komplexität. In der Bezie­hung eines Unter­neh­mens zu sei­nen Kun­den, sei­nen Mit­ar­bei­ten­den und sei­nen Part­nern ist es eine ent­schei­den­de Kom­po­nen­te. Das gilt beson­ders bei The­men, die eine hohe Komplexität auf­wei­sen, poten­zi­ell eine hohe Wir­kung erzie­len und zugleich von aussen nicht sicht- und nach­voll­zieh­bar sind.

Das Ver­trau­en, dass Unter­neh­men mit Tech­no­lo­gie ver­ant­wor­tungs­voll umge­hen und nur vertrauenswürdige KI-Syste­me (oder KI-Syste­me nur ethisch) ein­set­zen, ist des­halb unerlässlich. Es trägt dazu bei, inter­ne und exter­ne Widerstände gegenüber KI-Initia­ti­ven zu redu­zie­ren und die Akzep­tanz von KI-Tech­no­lo­gien im Unter­neh­mens­all­tag und ihre Inte­gra­ti­on in die Unternehmensabläufe zu fördern. Umge­kehrt können qua­li­ta­tiv schlech­te Ergeb­nis­se, Sicherheitsvorfälle, Dis­kri­mi­nie­run­gen und ande­re unerwünschte Effek­te zu einem Ver­trau­ens­ver­lust führen, der nicht leicht wie­der­gut­zu­ma­chen ist. Das ver­langt Risi­ko­ma­nage­ment und Qualitätssicherung, ein­schliess­lich der Prüfung möglicher KI-Syste­me, die Prüfung von Trai­nings­da­ten auf Ver­zer­run­gen, Tests der Modell­ge­nau­ig­keit, Notfallpläne, soll­te ein kri­ti­sches System Fehl­ver­hal­ten zei­gen usw. AI Gover­nan­ce unterstützt des­halb auch die Kontinuität des Geschäftsbetriebs.

Eine ange­mes­se­ne und funk­tio­nie­ren­de AI Gover­nan­ce führt also dazu, bei den invol­vier­ten Stake­hol­dern – Mit­ar­bei­ten­de, Kun­den, Part­ner, Behörden – Ver­trau­en auf­zu­bau­en und auf­recht­zu­er­hal­ten. Das gilt beson­ders dann, wenn nicht nur recht­li­che Anfor­de­run­gen, son­dern auch ethi­sche Stan­dards und gesell­schaft­li­che Erwar­tun­gen berücksichtigt werden.

Damit ver­bun­den ist auch ein Wett­be­werbs­vor­teil: Eine ange­mes­se­ne AI Gover­nan­ce unter­streicht das Enga­ge­ment des Unter­neh­mens für ver­ant­wor­tungs­vol­les Han­deln und Trans­pa­renz, auch nach aussen hin, was sich posi­tiv auf die Repu­ta­ti­on aus­wir­ken kann. Auch bei der Innovationsförderung spielt AI Gover­nan­ce eine wich­ti­ge Rol­le. Durch kla­re, verständliche und im Unter­neh­men bekann­te Spiel­re­geln können Unter­neh­men Kreativität und Expe­ri­men­tier­freu­de inner­halb ver­ant­wor­tungs­vol­ler Gren­zen fördern. Wenn Ent­wick­ler die Spiel­re­geln ken­nen und wis­sen, inner­halb wel­cher Gren­zen sie sich betätigen dürfen, fördert dies nicht nur die Sicher­heit im Umgang mit KI, son­dern gera­de auch den Ein­satz, der andern­falls durch mehr oder weni­ger vage und mehr oder weni­ger berech­tig­te Beden­ken gebremst wer­den kann. All dies fördert die Stabilität und den Ruf des Unter­neh­mens – in Märkten, in denen Ver­trau­en und Verlässlichkeit wesent­lich sind, ist dies ein Wettbewerbsfaktor.

Zwi­schen­fa­zit

AI Gover­nan­ce ist nichts grundsätzlich Neu­es, son­dern ein neu­er Anwen­dungs­be­reich der Gover­nan­ce. Den­noch, zu Beginn – vor dem brei­te­ren Auf­kom­men zugänglicher KI-Tech­no­lo­gien – war die­ser Bereich wenig ausgeprägt und nur bei Unter­neh­men vor­han­den, die sich früher schon stark mit ent­spre­chen­den Tech­no­lo­gien (dann eher unter dem Begriff “Machi­ne Lear­ning”) beschäftigt haben. Je deut­li­cher die Risi­ken des Ein­sat­zes von KI-Tools her­vor­ge­tre­ten sind, desto wich­ti­ger wur­de eine durch­dach­te AI Gover­nan­ce. Sie darf heu­te für vie­le Unter­neh­men als stra­te­gi­sche Not­wen­dig­keit betrach­tet werden.

Imple­men­tie­rung der AI Governance

KI ist zuerst als Grund­la­gen­tech­no­lo­gie und erst später als regu­la­to­ri­sches bzw. recht­li­ches The­ma ins brei­te­re Bewusst­sein getre­ten. Inner­halb der Unter­neh­men war es daher das Busi­ness, die 1st Line, die das The­ma vor­an­ge­trie­ben hat. Ent­spre­chend lag die Ver­ant­wor­tung für das The­ma primär bei den Busi­ness-Funk­tio­nen, mit der Zeit etwa bei einem CAIO (Chief AI Offi­cer) oder einem CDAO (Chief Data & Ana­ly­tics Officer).

Die Com­pli­ance-Auf­ga­ben waren häufig viel weni­ger klar zuge­ord­net. Nicht sel­ten wur­den sie den für den Daten­schutz zuständigen Per­so­nen oder Stel­len zuge­ord­net, bspw. einem Daten­schutz­be­auf­trag­ten (DPO) als der mit dem The­ma noch am ehe­sten ver­trau­ten Per­son. Das hat sich inzwi­schen bis zu einem gewis­sen Grad geändert. Man­che Unter­neh­men haben eine eige­ne Gover­nan­ce-Struk­tur für den Bereich KI geschaf­fen, ande­re – wohl die Mehr­zahl – haben bestehen­de Struk­tu­ren ver­wen­det und die Zuständigkeit für die KI dort angesiedelt.

So oder anders: Die AI Gover­nan­ce muss auf das jewei­li­ge Unter­neh­men zuge­schnit­ten sein. Die nach­fol­gen­den Best Prac­ti­ces können dabei (hof­fent­lich) helfen.

Rah­men­be­din­gun­gen des Unter­neh­mens verstehen

Zunächst soll­te die AI Gover­nan­ce der KI-Stra­te­gie des Unter­neh­mens ent­spre­chen. Dies setzt vor­aus, dass das Unter­neh­men für den Umgang mit KI-Tech­no­lo­gie kon­kre­te Zie­le defi­niert und dabei die Beson­der­hei­ten, die Bedürfnisse und auch das kul­tu­rel­le Umfeld des Unter­neh­mens berücksichtigt (sie­he ISO 42001, Ziff. 4). Damit ist auch gesagt, dass der Ein­satz von KI weder eine Stra­te­gie noch ein Selbst­zweck ist – KI ist nicht mehr und nicht weni­ger als ein Hilfs­mit­tel. Dem steht nicht ent­ge­gen, dass sich die Tech­no­lo­gie an sich und die auf ihr beru­hen­den Anwen­dun­gen so rasch ent­wickeln, dass ein gewis­ses Aus­pro­bie­ren not­wen­dig und sinn­voll ist. Unter­neh­men müssen des­halb eine recht kla­re Vor­stel­lung entwickeln.

Dabei können etwa die fol­gen­den Fra­gen unterstützen:

  • Wie setzt das Unter­neh­men KI bereits ein? Zur KI gehört nicht nur die Gene­ra­ti­ve AI in Form von ChatGPT und ver­wand­ten Syste­men, der Begriff ist viel brei­ter, und vie­le Unter­neh­men haben KI seit lan­gem ein­ge­setzt (bspw. Emp­feh­lungs- und Exper­ten­sy­ste­me, Betrugs­er­ken­nung, Sprach­er­ken­nung, Ener­gie­steue­rung, Robo­tik usw.). Dazu soll­ten KI-Anwen­dun­gen zuerst inven­ta­ri­siert wer­den. In aller Regel fehlt zunächst eine kla­re Sicht, und auch Appli­ka­ti­ons­ver­zeich­nis­se geben sel­ten Auf­schluss über den tatsächlichen Ein­satz von eige­ner und ein­ge­kauf­ter KI im Unternehmen.
  • Was sind Wer­te und Visi­on des Unter­neh­mens? Wie wich­tig ist Ver­trau­en für die Tätigkeit des Unter­neh­mens? Was ist die Wahr­neh­mung des Unter­neh­mens nach innen und nach aussen? Wie hoch sind Repu­ta­ti­ons­ri­si­ken im Zusam­men­hang mit dem Ein­satz von Tech­no­lo­gie? Steht das Unter­neh­men in der Öffentlichkeit, hat das Publi­kum eine emo­tio­na­le Bezie­hung zum Unter­neh­men? Wie gewich­tig sind ethi­sche Beden­ken (Stichwörter Bias, Fair­ness und Trans­pa­renz)? Hat sich das Unter­neh­men bereits öffentlich für die Ein­hal­tung ethi­scher Grundsätze verpflichtet?
  • Womit ver­dient das Unter­neh­men sein Geld? Wie wich­tig ist Inno­va­ti­on? Wel­che Pro­duk­te und Dienst­lei­stun­gen bie­tet es an, jetzt und in Zukunft? Kann KI dabei hel­fen, Pro­duk­te oder Dienst­lei­stun­gen zu ver­bes­sern, neue Pro­duk­te zu ent­wickeln oder die Kun­de­n­er­fah­rung zu verbessern?
  • Wel­che Risi­ken sind mit dem Ein­satz von KI ver­bun­den? Wie emp­find­lich ist das Unter­neh­men bspw. auf ope­ra­tio­nel­le Risi­ken, wie wich­tig ist die Busi­ness Con­ti­nui­ty, in wel­chen Berei­chen? Wie expo­niert ist das Unter­neh­men gegenüber recht­li­chen Risi­ken? Ist es regu­liert, bie­tet es kri­ti­sche Pro­duk­te an, ver­wen­det es eine gro­sse Men­ge an Personendaten?
  • Wel­chen regu­la­to­ri­schen Rah­men­be­din­gun­gen unter­liegt das Unter­neh­men? Ist es bspw. in der Finanz­bran­che, im Gesund­heits­we­sen, im Medi­zin­pro­duk­te- oder Fern­mel­de­be­reich tätig? Ist es bör­sen­ko­tiert? Wel­che ESG-Stan­dards soll­te es ein­hal­ten, hat es Nachhaltigkeitsziele?
  • Wel­che Pro­zes­se bei Ein­kauf, Pro­duk­ti­on und Ver­kauf sind für das Unter­neh­men wich­tig? Wo gibt es am ehe­sten Poten­zi­al für eine Effi­zi­enz­stei­ge­rung? Wie?
  • Wel­che Res­sour­cen ste­hen dem Unter­neh­men zur Verfügung? Wel­che Res­sour­cen (Daten, Know-how, Infra­struk­tur, Bud­get) wären erfor­der­lich? Sind bspw. vor­han­de­ne Daten für einen KI-Ein­satz geeignet?
  • Wie kann das Unter­neh­men mit Veränderungen und Ler­nen umge­hen? Können Erfah­run­gen aus Pilot­pro­jek­ten ver­wen­det wer­den? Verfügt das Unter­neh­men über Mit­ar­bei­ten­de, die in der Lage sind, sich die not­wen­di­gen Kom­pe­ten­zen bei Bedarf anzueignen?
  • Wie kann die Ver­ant­wor­tung für den Ein­satz von KI zuge­ord­net wer­den? Gibt es bereits bestehen­de Gre­mi­en oder Rol­len, die ein­ge­bun­den wer­den können? Müssen neue Zuständigkeiten geschaf­fen oder bestehen­de Rol­len ange­passt wer­den? Ist das The­ma in der Geschäftsleitung ver­an­kert? Gibt es einen struk­tu­rier­ten Umgang mit Risiken?
  • Wel­che Gover­nan­ce exi­stiert bereits? Ver­fügt das Unter­neh­men bspw. über Qualitätssicherungs‑, Datenschutz‑, Infor­ma­ti­ons­si­cher­heits- oder ande­re Manage­ment­sy­ste­me, von denen Bestand­tei­le ver­wend­bar oder die abzu­glei­chen sind?
  • Wie gross und wie kom­plex ist das Unter­neh­men? Mit wel­chem Grad an For­ma­li­sie­rung der Pro­zes­se kann es umge­hen, oder umge­kehrt – wel­cher Grad an For­ma­li­sie­rung ist notwendig?

Es ist wie ange­spro­chen wich­tig, ein Verständnis über die KI-Risi­ko­land­schaft des Unter­neh­mens zu erlan­gen und die­se aus Sicht des Unter­neh­mens zu bewer­ten. Dazu kann auch eine etwas genaue­re recht­li­che Ana­ly­se gehören. Stellt ein Unter­neh­men bspw. Medi­zin­pro­duk­te her, die KI-Syste­me verkörpern oder in sich haben, und ver­kauft es die­se auf dem EU-Markt, wird die KI-Ver­ord­nung der EU rele­vant, und das Pro­dukt kann durch­aus in die Kate­go­rie der Hoch­ri­si­ko-KI-Syste­me fal­len. Hält sich das Unter­neh­men nicht an die ent­spre­chen­den Vor­ga­ben, ris­kiert es Bus­sen, Reputationsschäden und ope­ra­tio­nel­le Risi­ken. Der Fokus beim Auf­bau der AI Gover­nan­ce muss hier auf der Ein­hal­tung der KI-Ver­ord­nung der EU liegen.

Prin­zi­pi­en definieren

Es hat sich bei der Umset­zung einer AI Gover­nan­ce bewährt, Prin­zi­pi­en zu defi­nie­ren, die den Umgang mit KI lei­ten. Jedes Unter­neh­men wird eige­ne Prin­zi­pi­en defi­nie­ren müssen – es gibt kei­nen uni­ver­sel­len Ansatz. Zu den wesent­li­chen Prin­zi­pi­en gehören aber u.a. Sicher­heit, Fair­ness, Trans­pa­renz, Qualität und Genau­ig­keit, Ver­ant­wort­lich­keit, mensch­li­che Auf­sicht und Nach­hal­tig­keit. Die­se Grundsätze kön­nen sich an den in ISO 42001 genann­ten Zie­len und Con­trols ori­en­tie­ren (Annex C). Sie soll­ten nicht wohl­klin­gen­de Schlagwörter blei­ben, son­dern mit Leben erfüllt wer­den; das ist aber kein Grund, auf sie als Leit­ideen zu verzichten.

Der Umgang mit KI-Tech­no­lo­gie kann sodann unter­schied­li­che Risi­ken mit sich brin­gen, je nach Anwen­dung und Kon­text. Es kann daher sinn­voll sein, der AI Gover­nan­ce einen risi­ko­ba­sier­ten Ansatz zugrun­de­zu­le­gen, ähnlich wie dies bei der (in der Stoss­rich­tung durch­aus sinn­vol­len) KI-Ver­ord­nung der EU der Fall ist. Dazu soll­ten Risi­ko­kri­te­ri­en defi­niert wer­den, und im zwei­ten Schritt können je nach Risi­ko­ka­te­go­rie unter­schied­li­che Anfor­de­run­gen defi­niert oder eine KI-System-Fol­gen­ab­schät­zung (AI System Impact Assess­ment) durch­ge­führt werden.

Kla­ren Rah­men festlegen

Ein zen­tra­ler Aspekt der Umset­zung ist sodann die Erstel­lung eines “AI Gover­nan­ce Frame­work”, das z.B. die all­ge­mei­ne Aus­gangs­la­ge und Risi­ken, die Zie­le der AI Gover­nan­ce, Defi­ni­tio­nen und Anwen­dungs­be­reich, die Kate­go­ri­sie­rung von KI-Syste­men und die Grundsätze und Ver­ant­wort­lich­kei­ten defi­niert. Dabei soll­ten möglichst kla­re, prag­ma­ti­sche und nach­voll­zieh­ba­re Vor­ga­ben fest­ge­legt wer­den, und der Anwen­dungs­be­reich des Frame­work und ein Vor­ge­hen für Aus­nah­men (“excep­ti­on to poli­cy”) soll­ten defi­niert werden.

Ein sol­ches Frame­work kann mehr oder weni­ger kom­plex sein; wesent­lich ist aber, dass es auf das Unter­neh­men zuge­schnit­ten ist und dass es die wesent­li­chen Grundsätze klar fest­legt. Dies dient auch dem Schutz der Lei­tungs­gre­mi­en, die die­se Grundsätze fest­zu­le­gen haben, damit aber zugleich auch wirk­sam Auf­ga­ben dele­gie­ren können.

Es emp­fiehlt sich dabei eine suk­zes­si­ve Vor­ge­hens­wei­se – auch hier soll­te man nicht in Schön­heit ster­ben. Der Fokus bei der Umset­zung soll­te im ersten Schritt auf die wesent­li­chen Steue­rungs­zie­le und die rele­van­ten Risi­ken gelegt wer­den. Dafür kön­nen bspw. eine Poli­cy mit bestimm­ten Vor­ga­ben und ins­be­son­de­re inter­nen Ver­ant­wort­lich­kei­ten genü­gen, ver­bun­den mit einem Berichts­we­sen und dem Ein­be­zug einer – je nach Unter­neh­men mehr oder weni­ger – unab­hän­gi­gen Stel­le zur Prü­fung der Zuläs­sig­keit. Im Lauf der Zeit – wenn KI stär­ker oder für heik­le­re Pro­zes­se ein­ge­setzt wer­den – kön­nen wei­te­re Ele­men­te dazu kom­men, bspw. aus­ge­reif­te­re Ver­zeich­nis­se, defi­nier­te Prüfra­ster, The­men-spe­zi­fi­sche Schu­lun­gen, ver­trag­li­che Vor­ga­ben für Lie­fe­ran­ten, Emp­feh­lun­gen eines inter­nen Ethik-Boards, Appr­oval der Geschäfts­lei­tung usw.

Ver­ant­wort­lich­kei­ten und Zustän­dig­kei­ten festlegen

Füh­rungs­ebe­ne miteinbeziehen

Auch wenn spe­zia­li­sier­te Abtei­lun­gen, Stel­len oder Funk­tio­nen geschaf­fen wer­den: Beim Auf­bau und bei der Umset­zung der AI Gover­nan­ce muss die Füh­rungs­ebe­ne mit­ein­be­zo­gen wer­den. Ohne dies ist die Akzep­tanz der Gover­nan­ce im Unter­neh­men gefähr­det, und umge­kehrt kön­nen Füh­rungs­kräf­te für die not­wen­di­gen Res­sour­cen sor­gen. Wie ange­spro­chen haben Lei­tungs­per­so­nen zudem ein eige­nes Inter­es­se, nicht nur die stra­te­gi­schen Wei­chen zu stel­len, son­dern die Ver­ant­wor­tung wirk­sam zu
dele­gie­ren, und dies setzt auch vor­aus, dass die stu­fen­ge­rech­te Kom­pe­tenz auf allen Ebe­nen – auch der Lei­tungs­ebe­ne – vor­han­den ist, dass ein Berichtswesen
exi­stiert und dass die Adres­sa­ten von Berich­ten in der Lage sind, die­se zu verstehen.

Ver­ant­wort­lich­keit für Pro­jek­te definieren

Für jedes KI-Pro­jekt soll­te ein Unter­neh­men sodann eine ver­ant­wort­li­che Per­son oder Ein­heit bestim­men, die intern die Ver­ant­wor­tung für die Com­pli­ance trägt (im Sin­ne von «Accoun­ta­bi­li­ty») und die im Rah­men ihrer Funk­ti­on oder Kom­pe­ten­zen über die Ent­wick­lung bzw. den Ein­satz eines KI-Systems ent­schei­det (z.B. ein Busi­ness Owner). Dane­ben kann eine Ansprech­per­son defi­niert wer­den, die nicht mit dem Busi­ness Owner über­ein­stim­men muss, aber als direk­te Ansprech­per­son bei Fra­gen bereitsteht.

Zen­tra­le Anlaufstelle

Es ist wei­ter emp­feh­lens­wert, eine ver­ant­wort­li­che Per­son oder Unter­neh­mens­ein­heit für AI Gover­nan­ce als zen­tra­le Anlauf­stel­le zu benen­nen. Sie spielt in der Über­wa­chung und Aktua­li­sie­rung der AI Gover­nan­ce eine Schlüs­sel­rol­le (ISO 42001 sieht bspw. einen Pro­zess zur Mel­dung von Beden­ken vor (A.3.3), für den eine kla­re Anlauf­stel­le sinn­voll ist) und soll­te sowohl über die not­wen­di­gen fach­li­chen Kom­pe­ten­zen als auch über aus­rei­chen­de Auto­ri­tät im Unter­neh­men ver­fü­gen. Eine sol­che Ein­heit kann z.B. ein bestehen­des Data-Gover­nan­ce-Team sein, das mit der inter­dis­zi­pli­nä­ren Zusam­men­ar­beit ver­traut ist. In grö­sse­ren Unter­neh­men, die sich schon län­ger mit dem The­ma KI befas­sen, wird ver­mehrt eine eige­ne Abtei­lung für AI Gover­nan­ce eingerichtet.

Inter­dis­zi­pli­nä­re Arbeitsgruppe

Die Kom­ple­xi­tät und Viel­sei­tig­keit von KI-Tech­no­lo­gie erfor­dern eine brei­te Palet­te an Fach­wis­sen und Kom­pe­ten­zen. Vie­le Unter­neh­men befin­den sich am Anfang in einer Ori­en­tie­rungs­pha­se, wo sie noch kei­ne kla­re Vor­stel­lung der Trag­wei­te der KI-The­ma­tik für das Unter­neh­men haben. Es lohnt sich, zu Beginn eine inter­dis­zi­pli­nä­re Working Group zu bil­den, die sich aus Per­so­nen aus ver­schie­de­nen Berei­chen zusam­men­setzt (z.B. Juri­stin­nen; IT‑, Secu­ri­ty- und Ethik-Exper­ten oder auch Per­so­nen aus dem Busi­ness selbst), um die ver­schie­de­nen Aspek­te bei der Imple­men­tie­rung der AI Gover­nan­ce zu berücksichtigen.

Wich­tig ist aller­dings die Unter­schei­dung einer sol­chen Grup­pe im Sin­ne eines beglei­ten­den Exper­ten­gre­mi­ums von einem Ent­scheid­gre­mi­um. Beson­ders Unter­neh­men, die einem “Three Lines”-Ansatz fol­gen – also der Tren­nung zwi­schen den Ertrags­ein­hei­ten, dem «Busi­ness», von einer unab­hän­gi­gen Com­pli­ance-Funk­ti­on – soll­ten die­se Tren­nung nicht dadurch unter­lau­fen, dass sie Ent­schei­dun­gen von gemisch­ten Gre­mi­en tref­fen las­sen. Es spricht dem­ge­gen­über nichts dage­gen, dass sol­che Gre­mi­en gemein­sa­me Vor­schlä­ge machen, solan­ge die Unab­hän­gig­keit der Ent­schei­dun­gen dadurch nicht gefähr­det wird.

Ethik­kom­mis­si­on

AI Gover­nan­ce geht in aller Regel über die Sicher­stel­lung von Com­pli­ance hin­aus. KI-Syste­me sol­len nicht nur zuläs­sig, son­dern auch ver­trau­ens­wür­dig und ethisch sein. Vie­le Unter­neh­men haben daher Ethik­rä­te oder ‑kom­mis­sio­nen ein­ge­rich­tet, um KI-Initia­ti­ven zu beglei­ten und sicher­zu­stel­len, dass die­se mit ethi­schen Stan­dards und gesell­schaft­li­chen Wer­ten übereinstimmen.

Swis­s­com ver­fügt bei­spiels­wei­se über ein Data Ethics Board, das sich auch um KI-Pro­jek­te küm­mert, sobald die­se aus ethi­scher Sicht hei­kel sein könn­ten. Auch klei­ne­re Unter­neh­men kön­nen und soll­ten sich mit ethi­schen Fra­gen befas­sen, beson­ders wenn sie in heik­len Berei­chen oder mit heik­len Daten tätig sind. Soll KI ein­ge­setzt wer­den, um Daten von Mit­ar­bei­ten­den aus­zu­wer­ten (bspw. für die der­zeit viel­dis­ku­tier­te Sen­ti­ment-Ana­ly­se), ist dies immer der Fall.

Inter­ne Kom­mu­ni­ka­ti­on und Schulungen

Die inter­ne Kom­mu­ni­ka­ti­on und Schu­lung sind wesent­li­che Ele­men­te der AI Gover­nan­ce. Die Mit­ar­bei­ten­den soll­ten ver­ste­hen, wozu AI Gover­nan­ce dient und wie sie sich
auf ihre Arbeit aus­wirkt. Eine offe­ne und auch ehr­li­che Kom­mu­ni­ka­ti­on gegen­über Mit­ar­bei­ten­den schafft erst das not­wen­di­ge Ver­trau­en. Dies erfor­dert eine ver­ständ­li­che Kom­mu­ni­ka­ti­on und ent­spre­chen­de Schu­lungs­mass­nah­men (der AI Act ver­langt dies unter dem Stich­wort “AI Liter­a­cy” ohnehin).

Ite­ra­ti­ver Prozess

AI Gover­nan­ce soll­te als kon­ti­nu­ier­li­cher und ite­ra­ti­ver Pro­zess ver­stan­den wer­den. Sie ist kein ein­ma­li­ges Pro­jekt, das nach einer Imple­men­tie­rungs­pha­se abge­schlos­sen ist (genau­so wie ande­re Zwei­ge der Gover­nan­ce). Die Struk­tu­ren und Pro­zes­se der AI Gover­nan­ce soll­ten regel­mä­ssig geprüft und gege­be­nen­falls ange­passt wer­den. Anders kön­nen Unter­neh­men auf neue Her­aus­for­de­run­gen und Ver­än­de­run­gen – sei­en sie tech­no­lo­gi­scher, regu­la­ti­ver oder markt­be­ding­ter Natur – nicht reagie­ren (und jedes System bewirkt Miss­bräu­che und Leer­läu­fe – nur schon des­halb soll­ten Syste­me immer wie­der ange­passt werden).

Die­ser ite­ra­ti­ve Ansatz ist ein Pro­zess des Testens, Über­prü­fens und Anpas­sens, der die AI Gover­nan­ce auf dem Stand von Tech­no­lo­gie, Regu­lie­rung und Pra­xis hal­ten soll, zugleich aber eine Lern­kul­tur vor­aus­setzt. Feed­back von Mit­ar­bei­ten­den soll­te lau­fend ein­ge­holt werden.

Kon­ti­nu­ier­li­che Über­wa­chung der Systeme

AI-Gover­nan­ce-Pro­zes­se soll­ten schliess­lich “Gesund­heits­checks” vor­se­hen, um KI-Syste­me, die bereits geprüft sind, lau­fend zu über­wa­chen. Um den Über­blick über sämt­li­che KI-Anwen­dun­gen im Unter­neh­men zu behal­ten, ist es wei­ter wie ange­spro­chen unver­zicht­bar, ein Ver­zeich­nis der ent­wickel­ten oder ein­ge­kauf­ten KI-Syste­me und KI-Model­le zu führen.