De Anne-Sophie Morand et David Vasella

Dans le con­tex­te de l’é­vo­lu­ti­on rapi­de du domaine de l’in­tel­li­gence arti­fi­ci­el­le (IA), les ent­re­pri­ses ont de plus en plus beso­in de struc­tures et de pro­ce­s­sus qui con­tri­buent à garan­tir une uti­li­sa­ti­on sûre, responsable et juri­di­quement cor­rec­te de la tech­no­lo­gie IA. La “gou­ver­nan­ce de l’IA” joue un rôle cen­tral dans ce con­tex­te. Une gou­ver­nan­ce de l’IA fonc­tion­nel­le repré­sen­te cer­tes un défi pour les ent­re­pri­ses – com­me tou­te gou­ver­nan­ce – mais elle n’est pas seu­le­ment néces­saire pour rédui­re les ris­ques, elle est aus­si une oppor­tu­ni­té qui ouvre la voie à une inno­va­ti­on adap­tée aux risques.

Qu’est-ce que la “gou­ver­nan­ce de l’IA” ?

Le ter­me “gou­ver­nan­ce” (en fran­çais : pilo­ta­ge, direc­tion) dési­gne un système de con­trô­le et de régu­la­ti­on et dési­gne le cad­re régle­men­tai­re néces­saire pour diri­ger une ent­re­pri­se et sur­veil­ler ses activités.

Dans le con­tex­te de l’IA, “Gou­ver­nan­ce de l’IA“L’ac­cent est mis sur ce cad­re de gou­ver­nan­ce de l’IA, c’est-à-dire sur le déve­lo­p­pe­ment et la mise en œuvre de mesu­res orga­ni­sa­ti­on­nel­les, de pro­ce­s­sus, de con­trô­les et d’ou­tils qui con­tri­buent à rend­re l’uti­li­sa­ti­on de l’IA digne de con­fi­ance, responsable, éthi­que, léga­le et efficace.

La gou­ver­nan­ce de l’IA fait géné­ra­le­ment par­tie du pay­sa­ge géné­ral de la gou­ver­nan­ce d’u­ne ent­re­pri­se et est sou­vent étroi­te­ment liée à la “gou­ver­nan­ce des don­nées”, c’est-à-dire au cad­re par­al­lè­le ou croi­sé de gesti­on du trai­te­ment des don­nées et infor­ma­ti­ons per­son­nel­les et aut­res. Elle n’en con­sti­tue pas moins un domaine à part entiè­re. La gou­ver­nan­ce des don­nées se con­cent­re sur le trai­te­ment des don­nées, tan­dis que la gou­ver­nan­ce de l’IA prend en comp­te les défis par­ti­cu­liers de la tech­no­lo­gie de l’IA. En out­re, les don­nées sont rela­ti­ve­ment sta­ti­ques, tan­dis que les systè­mes d’IA app­ren­nent et évo­lu­ent. La gou­ver­nan­ce des don­nées tra­di­ti­on­nel­le ne peut donc guè­re garan­tir une uti­li­sa­ti­on éthi­que et con­for­me à la loi de l’IA.

Dans son champ d’ap­pli­ca­ti­on, la gou­ver­nan­ce de l’IA com­prend géné­ra­le­ment les aspects suivants :

  • Achat, explo­ita­ti­on et uti­li­sa­ti­on de systè­mes d’IACe qu’est un système d’in­tel­li­gence arti­fi­ci­el­le est défi­ni dans le champ d’ap­pli­ca­ti­on du règle­ment euro­pé­en sur l’in­tel­li­gence arti­fi­ci­el­le (Loi sur l’in­tel­li­gence arti­fi­ci­el­le), son artic­le 3, para­gra­phe 1. Mal­gré la Lignes direc­tri­ces de la Com­mis­si­on euro­pé­en­ne sur la noti­on de système d’IA Il n’est cepen­dant tou­jours pas clair de savoir quand un système à moi­tié intel­li­gent fran­chit le seuil du système d’IA (voir not­re FAQ). C’est pour­quoi le champ d’ap­pli­ca­ti­on de la gou­ver­nan­ce de l’AI ne dev­rait pas être trop rest­reint, ce que la FINMA a fait dans sa “Com­mu­ni­qué pru­den­tiel 08/2024 – Gou­ver­nan­ce et gesti­on des ris­ques liés à l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le“a éga­le­ment souligné ;
  • Déve­lo­p­pe­ment et ven­te de systè­mes d’IA; et
  • Déve­lo­p­pe­ment et ven­te de modè­les d’IA à usa­ge géné­ralUn modè­le d’IA à usa­ge géné­ral (GPAIM) n’est pas la même cho­se qu’un système d’IA et est adres­sé sépa­ré­ment dans le règle­ment de l’UE sur l’IA. Un GPAIM (“modè­le d’IA à usa­ge géné­ral”) est un modè­le d’IA qui est d’u­sa­ge géné­ral, qui peut être lar­ge­ment uti­li­sé et qui peut être inté­g­ré dans des systè­mes en aval (art. 3 n° 63 AI Act). Un exemp­le est le modè­le “GPT‑4” d’O­pe­nAI. Le système d’IA serait dans ce cas “ChatGPT”.

Les ent­re­pri­ses peu­vent à cet égard éga­le­ment Nor­me ISO 42001:2023Tech­no­lo­gie de l’in­for­ma­ti­on – Intel­li­gence arti­fi­ci­el­le – Système de gesti­on”. La nor­me défi­nit les exi­gen­ces d’un système de gesti­on de l’IA (AIMS) et aide au déve­lo­p­pe­ment, au déploie­ment et à l’uti­li­sa­ti­on sys­té­ma­ti­ques des systè­mes d’IA, et la gou­ver­nan­ce de l’IA selon cet­te nor­me est plus sus­cep­ti­ble de s’in­té­grer avec les systè­mes de gesti­on exi­stants, par exemp­le pour la qua­li­té (ISO 9001), la sécu­ri­té de l’in­for­ma­ti­on (ISO 27001) ou la pro­tec­tion des don­nées (ISO 27701) (ISO 42001, Anne­xe D).

L’uti­li­sa­ti­on d’ou­tils d’IA (par ex. ChatGPT, Whisper, Clau­de, Per­ple­xi­ty, Note­book­LM, Gemi­ni, etc.) par des col­la­bo­ra­teurs au tra­vail, mais à tit­re pri­vé, sur initia­ti­ve pri­vée ou avec des licen­ces pri­vées, est un sujet qui doit être trai­té sépa­ré­ment. Une tel­le uti­li­sa­ti­on d’ou­tils d’IA par les col­la­bo­ra­teurs est géné­ra­le­ment régle­men­tée par des direc­ti­ves TIC inter­nes exi­stan­tes. Les ent­re­pri­ses inter­di­sent sou­vent une tel­le uti­li­sa­ti­on ou indi­quent au moins quel­les don­nées les col­la­bo­ra­teurs peu­vent ou ne peu­vent pas intro­dui­re dans ces outils. Il con­vi­ent de noter que les four­nis­seurs d’ou­tils n’a­gis­sent pas dans ce cas en tant que respons­ables du trai­te­ment des don­nées, mais en tant que respons­ables et qu’ils dis­po­sent donc d’u­ne gran­de liber­té dans le trai­te­ment des don­nées sai­sies. Dans le cas des licen­ces d’entre­pri­se, les four­nis­seurs agis­sent en revan­che – même si ce n’est pas sans excep­ti­on – en tant que sous-trai­tants et sont donc sous le con­trô­le de l’entreprise.

Pour­quoi une ent­re­pri­se a‑t-elle beso­in d’u­ne gou­ver­nan­ce de l’IA ?

Du point de vue de l’entre­pri­se, plu­sieurs rai­sons plai­dent en faveur de la mise en place d’u­ne gou­ver­nan­ce de l’IA.

Respect des exi­gen­ces réglementaires

Dans le domaine numé­ri­que, des exi­gen­ces régle­men­tai­res exi­ge­an­tes ent­rent en vigueur dans le mon­de entier. Par­ti­cu­liè­re­ment com­ple­xe, poten­ti­el­le­ment incisi­ve, sou­vent peu clai­re dans son appli­ca­ti­on, et dont l’ef­fet extra­ter­ri­to­ri­al est éga­le­ment per­ti­nent pour les ent­re­pri­ses en Sui­s­se, est la loi sur la pro­tec­tion des don­nées. Loi sur l’in­tel­li­gence arti­fi­ci­el­le. Com­me on le sait, elle suit une appro­che éche­lon­née en fonc­tion des ris­ques, en faisant la distinc­tion ent­re les pra­ti­ques inter­di­tes (il s’a­git prin­ci­pa­le­ment d’ap­pli­ca­ti­ons qu’u­ne ent­re­pri­se responsable s’ab­sti­en­drait de fai­re de sa pro­pre initia­ti­ve), les systè­mes à haut ris­que (par exemp­le lors de l’uti­li­sa­ti­on dans le con­tex­te du tra­vail ou de l’éva­lua­ti­on de la sol­va­bi­li­té), les ris­ques limi­tés (com­me par exemp­le les chat­bots) et les aut­res appli­ca­ti­ons pré­sen­tant des ris­ques minimes.

Les ent­re­pri­ses ayant leur siè­ge en Sui­s­se sont tenues par leur champ d’ap­pli­ca­ti­on ter­ri­to­ri­al saisi,

  • lorsqu’ils met­tent sur le mar­ché ou met­tent en ser­vice des systè­mes d’IA dans l’UE en tant que four­nis­seurs (“pro­vi­der”), ou
  • s’il est le four­nis­seur ou l’ex­plo­itant (“deployer”) d’un système d’IA et s’il uti­li­se la pro­duc­tion (“out­put”) du système d’IA dans l’UE. Le moment où cela se pro­duit n’est pas très clair, mais l’uti­li­sa­ti­on de la pro­duc­tion dans l’UE sup­po­se une cer­taine inten­ti­on ou ori­en­ta­ti­on, tout en couvrant le cas où un système d’IA a un impact important sur des per­son­nes dans l’UE.

En novembre 2023, le Con­seil fédé­ral avait deman­dé au DETEC (OFCOM) et au DFAE (auprès de la Divi­si­on Euro­pe) une Etat des lieux sur une éven­tu­el­le régle­men­ta­ti­on de l’IA qui dev­rait ser­vir de base de décis­i­on pour la suite de la pro­cé­du­re. Cet état des lieux a été le 12 février 2025 en même temps que la décis­i­on du Con­seil fédé­ral sur la maniè­re dont il sou­hai­te abor­der le thè­me de l’IA sur le plan régle­men­tai­re. Com­me on pou­vait s’y attendre, le Con­seil fédé­ral ne veut pas d’u­ne ordon­nan­ce sui­s­se sur l’IA – il a pris en comp­te les dou­tes répan­dus selon les­quels une tel­le régle­men­ta­ti­on ent­raî­nerait des dépen­ses éle­vées. Il s’est tou­te­fois pro­non­cé en faveur de la mise en œuvre de la Con­ven­ti­on sur l’IA du Con­seil de l’Eu­ro­pe et nous avons déci­dé fai­re signer le 27 mars 2025.

Ce n’est pas sur­prenant : les Con­ven­ti­on sur l’IA a été lar­ge­ment déve­lo­p­pée par la Sui­s­se sous sa pré­si­dence. Elle

  • est le pre­mier accord inter­gou­ver­ne­men­tal au mon­de sur les IA qui soit con­traignant pour les par­ties con­trac­tan­tes. Il doit main­tenant être repris dans le droit sui­s­se, sa mise en œuvre lais­sant une gran­de mar­ge de manœuvre ;
  • elle s’adres­se en pre­mier lieu aux acteurs publics. Les acteurs pri­vés ne sont con­cer­nés que dans la mesu­re où ils déploi­ent un effet hori­zon­tal direct ou indi­rect ent­re les par­ti­cu­liers. L’ob­li­ga­ti­on d’é­ga­li­té sala­ria­le dans les rap­ports de tra­vail ou les dis­po­si­ti­ons rela­ti­ves à la dis­cri­mi­na­ti­on racia­le en sont des exemples.

De nombreux domain­es ne seront cepen­dant pas con­cer­nés. Le Con­seil fédé­ral veut cepen­dant que des modi­fi­ca­ti­ons légis­la­ti­ves soi­ent appor­tées là où elles sont néces­saires, des adap­t­ati­ons aus­si sec­to­ri­el­les et neutres sur le plan tech­no­lo­gi­que que pos­si­ble. Une régle­men­ta­ti­on géné­ra­le et trans­sec­to­ri­el­le ne doit être édic­tée que dans des domain­es cen­traux et per­tin­ents pour les droits fon­da­men­taux, par exemp­le dans le droit de la pro­tec­tion des don­nées. La rati­fi­ca­ti­on de la Con­ven­ti­on sur l’IA doit être accom­pa­gnée par les mesu­res sui­van­tes mesu­res non con­traignan­tes sur le plan juri­di­que, par exemp­le les accords d’au­to­dé­cla­ra­ti­on et les solu­ti­ons sectorielles.

Le Con­seil fédé­ral a char­gé le DFJP de pré­sen­ter, avec le DETEC et le DFAE, un pro­jet de con­sul­ta­ti­on pour la mise en œuvre de la con­ven­ti­on sur les IA d’i­ci fin 2026. Par­al­lè­le­ment, un plan doit être éla­bo­ré pour les aut­res mesu­res non con­traignan­tes sur le plan juri­di­que. Dans ce domaine, la responsa­bi­li­té incom­be au DETEC. On peut donc s’at­tendre à ce que des règles sup­p­lé­men­tai­res s’ap­pli­quent éga­le­ment en Sui­s­se, par end­roits de maniè­re glo­ba­le, sinon de maniè­re ponc­tu­el­le et en plus du cad­re juri­di­que exi­stant, qui s’ap­pli­que éga­le­ment aux IA, com­me l’a justem­ent rele­vé le PFPDT.

A ces dis­po­si­ti­ons s’a­jou­tent le droit exi­stantLes règles de la pro­tec­tion des don­nées, du droit du tra­vail, du droit d’au­teur ou de la con­cur­rence déloya­le, par exemp­le, restent appli­ca­bles à l’uti­li­sa­ti­on de l’IA.

Il ne faut pas non plus oublier Aspects ESG. L’in­té­gra­ti­on des prin­cipes ESG dans la gou­ver­nan­ce de l’IA peut con­tri­buer à la pri­se en comp­te des aspects envi­ron­ne­men­taux, de la responsa­bi­li­té socia­le et de la trans­pa­rence de la gesti­on d’entre­pri­se lors du déve­lo­p­pe­ment et de l’uti­li­sa­ti­on de l’IA. L’AI Act ne con­ti­ent plus de pre­scrip­ti­ons à ce sujet, con­trai­re­ment aux ver­si­ons pro­vi­so­i­res qui exi­ge­ai­ent enco­re des étu­des d’im­pact sur l’en­vi­ron­ne­ment et un rap­port sur la con­som­ma­ti­on d’é­ner­gie. La nor­me ISO 42001 exi­ge tou­te­fois de véri­fier si le chan­ge­ment cli­ma­tique est une que­sti­on per­ti­nen­te pour une ent­re­pri­se et men­ti­on­ne l’im­pact envi­ron­ne­men­tal com­me objec­tif orga­ni­sa­ti­on­nel poten­tiel (anne­xe C.2.4).

Dans ce con­tex­te, une gou­ver­nan­ce de l’IA qui fonc­tion­ne bien peut aider les ent­re­pri­ses à répond­re aux exi­gen­ces léga­les actu­el­les et futures. Cet­te sécu­ri­té rela­ti­ve est une con­di­ti­on pré­alable à une uti­li­sa­ti­on effi­cace de l’IA dans l’entreprise.

Éta­b­lir la confiance

La con­fi­ance rem­place les incer­ti­tu­des par des hypo­thè­ses et réduit ain­si la com­ple­xi­té. Dans la rela­ti­on d’u­ne ent­re­pri­se avec ses cli­ents, ses col­la­bo­ra­teurs et ses par­ten­aires, c’est une com­po­san­te essen­ti­el­le. Cela est par­ti­cu­liè­re­ment vrai pour les thè­mes qui pré­sen­tent une gran­de com­ple­xi­té, qui ont poten­ti­el­le­ment un impact éle­vé et qui, en même temps, ne sont pas visi­bles et com­pré­hen­si­bles de l’extérieur.

La con­fi­ance dans le fait que les ent­re­pri­ses uti­li­sent la tech­no­lo­gie de maniè­re responsable et n’uti­li­sent que des systè­mes d’IA dignes de con­fi­ance (ou des systè­mes d’IA uni­quement de maniè­re éthi­que) est donc indis­pensable. Elle con­tri­bue à rédui­re les rési­stances inter­nes et exter­nes aux initia­ti­ves d’IA et à favo­ri­ser l’ac­cep­t­ati­on des tech­no­lo­gies d’IA dans la vie quo­ti­di­en­ne de l’entre­pri­se et leur inté­gra­ti­on dans les pro­ce­s­sus de l’entre­pri­se. Inver­se­ment, des résul­tats de mau­vai­se qua­li­té, des inci­dents de sécu­ri­té, des dis­cri­mi­na­ti­ons et d’aut­res effets indé­si­ra­bles peu­vent ent­raî­ner une per­te de con­fi­ance qui n’est pas faci­le­ment répa­ra­ble. Cela exi­ge Gesti­on des ris­ques et assu­rance qua­li­téLa gou­ver­nan­ce de l’IA com­prend l’ex­amen des systè­mes d’IA poten­tiels, l’ex­amen des don­nées d’en­traî­ne­ment pour détec­ter les biais, les tests de pré­cis­i­on des modè­les, les plans d’ur­gence si un système cri­tique pré­sen­te des dys­fonc­tion­ne­ments, etc. La gou­ver­nan­ce de l’IA sou­ti­ent donc éga­le­ment la con­ti­nui­té des activités.

Une gou­ver­nan­ce de l’IA adé­qua­te et fonc­tion­nel­le con­duit donc, auprès des par­ties pren­an­tes impli­quées – col­la­bo­ra­teurs, cli­ents, par­ten­aires, auto­ri­tés – à éta­b­lir et main­te­nir la con­fi­ance. Cela est par­ti­cu­liè­re­ment vrai lorsque non seu­le­ment les exi­gen­ces léga­les, mais aus­si les nor­mes éthi­ques et les atten­tes de la socié­té sont pri­ses en compte.

Cela va de pair avec un Avan­ta­ge con­cur­ren­tielUne gou­ver­nan­ce de l’AI appro­priée souli­gne l’en­ga­ge­ment de l’entre­pri­se en faveur d’un com­porte­ment responsable et de la trans­pa­rence, y com­pris vis-à-vis de l’ex­té­ri­eur, ce qui peut avoir un effet posi­tif sur sa répu­ta­ti­on. La gou­ver­nan­ce de l’IA joue éga­le­ment un rôle important dans la pro­mo­ti­on de l’in­no­va­ti­on. Grâ­ce à des règles du jeu clai­res, com­pré­hen­si­bles et con­nues au sein de l’entre­pri­se, les ent­re­pri­ses peu­vent encou­ra­ger la créa­ti­vi­té et l’expé­ri­men­ta­ti­on dans des limi­tes respons­ables. Si les déve­lo­p­peurs con­nais­sent les règles du jeu et savent dans quel­les limi­tes ils peu­vent agir, cela favo­ri­se non seu­le­ment la sécu­ri­té dans l’uti­li­sa­ti­on de l’IA, mais aus­si justem­ent son uti­li­sa­ti­on, qui peut sinon être frei­née par des dou­tes plus ou moins vagues et plus ou moins justi­fi­és. Tout cela favo­ri­se la sta­bi­li­té et la répu­ta­ti­on de l’entre­pri­se – sur des mar­chés où la con­fi­ance et la fia­bi­li­té sont essen­ti­el­les, c’est un fac­teur de compétitivité.

Con­clu­si­on intermédiaire

La gou­ver­nan­ce de l’IA n’est pas fon­da­men­ta­le­ment nou­vel­le, mais con­sti­tue un nou­veau domaine d’ap­pli­ca­ti­on de la gou­ver­nan­ce. Néan­mo­ins, au début – avant l’é­mer­gence plus lar­ge de tech­no­lo­gies d’IA acce­s­si­bles – ce domaine était peu déve­lo­p­pé et n’e­xi­stait que dans les ent­re­pri­ses qui s’é­tai­ent déjà for­te­ment enga­gées aupa­ra­vant dans les tech­no­lo­gies cor­re­spond­an­tes (alors plutôt sous le ter­me “Machi­ne Lear­ning”). Plus les ris­ques liés à l’uti­li­sa­ti­on d’ou­tils d’IA sont appa­rus clai­re­ment, plus une gou­ver­nan­ce de l’IA bien pen­sée est deve­nue importan­te. Elle peut aujour­d’hui être con­sidé­rée com­me une néces­si­té stra­té­gique pour de nombreu­ses entreprises.

Mise en œuvre de la gou­ver­nan­ce de l’IA

L’IA est d’a­bord apparue com­me une tech­no­lo­gie fon­da­men­ta­le, puis com­me un sujet régle­men­tai­re ou juri­di­que. Au sein des ent­re­pri­ses, c’est donc le busi­ness, la 1ère ligneLa direc­tion a fait avan­cer le sujet. En con­sé­quence, la responsa­bi­li­té du thè­me incom­bait en pre­mier lieu aux fonc­tions com­mer­cia­les, avec le temps, par exemp­le à un CAIO (Chief AI Offi­cer) ou à un CDAO (Chief Data & Ana­ly­tics Officer).

Le site Tâches de con­for­mi­té étai­ent sou­vent beau­coup moins clai­re­ment attri­bués. Il n’é­tait pas rare qu’el­les soi­ent attri­buées à des per­son­nes ou à des orga­nes respons­ables de la pro­tec­tion des don­nées, par exemp­le à un délé­gué à la pro­tec­tion des don­nées (DPD), qui est la per­son­ne la plus fami­liè­re avec le sujet. Cela a chan­gé dans une cer­taine mesu­re. Cer­tai­nes ent­re­pri­ses ont créé leur pro­pre struc­tu­re de gou­ver­nan­ce pour l’IA, d’aut­res – sans dou­te la majo­ri­té – ont uti­li­sé des struc­tures exi­stan­tes et y ont pla­cé la responsa­bi­li­té de l’IA.

D’u­ne maniè­re ou d’u­ne aut­re, la gou­ver­nan­ce de l’IA doit être adap­tée à l’entre­pri­se con­cer­née. Les bon­nes pra­ti­ques sui­van­tes peu­vent (espé­rons-le) y contribuer.

Com­prend­re le cad­re de l’entreprise

Tout d’a­bord, la gou­ver­nan­ce de l’IA doit cor­re­spond­re à la stra­té­gie de l’entre­pri­se en matiè­re d’IA. Cela sup­po­se que l’entre­pri­se soit prête à gérer la tech­no­lo­gie de l’IA. défi­ni des objec­tifs con­crets tout en tenant comp­te des spé­ci­fi­ci­tés, des beso­ins et aus­si de l’en­vi­ron­ne­ment cul­tu­rel de l’entre­pri­se (voir ISO 42001, point 4). Cela signi­fie éga­le­ment que l’uti­li­sa­ti­on de l’IA n’est ni une stra­té­gie ni une fin en soi – l’IA n’est ni plus ni moins qu’un outil. Cela n’empêche pas que la tech­no­lo­gie en soi et les appli­ca­ti­ons qui en décou­lent évo­lu­ent si rapi­de­ment qu’un cer­tain tâton­nement est néces­saire et uti­le. Les ent­re­pri­ses doi­vent donc déve­lo­p­per une visi­on assez claire.

Les que­sti­ons sui­van­tes peu­vent être uti­les à cet égard :

  • Com­ment l’entre­pri­se uti­li­se-t-elle déjà l’IA ? L’IA ne se limi­te pas à l’IA géné­ra­ti­ve sous la for­me de ChatGPT et de systè­mes appa­ren­tés ; le ter­me est beau­coup plus lar­ge et de nombreu­ses ent­re­pri­ses uti­li­sent l’IA depuis long­temps (par exemp­le, systè­mes de recom­man­da­ti­on et d’ex­per­ti­se, détec­tion des frau­des, recon­nais­sance voca­le, con­trô­le de l’é­ner­gie, robo­tique, etc.) Pour ce fai­re, les appli­ca­ti­ons d’IA dev­rai­ent d’a­bord être inven­to­riées. En règ­le géné­ra­le, il n’e­xi­ste pas de visi­on clai­re et les réper­toires d’ap­pli­ca­ti­ons four­nis­sent rare­ment des infor­ma­ti­ons sur l’uti­li­sa­ti­on effec­ti­ve de l’IA pro­pre et ache­tée dans l’entreprise.
  • Quel­les sont les valeurs et la visi­on de l’entre­pri­se ? Quel­le est l’im­portance de la con­fi­ance pour l’ac­ti­vi­té de l’entre­pri­se ? Quel­le est la per­cep­ti­on de l’entre­pri­se à l’in­té­ri­eur et à l’ex­té­ri­eur ? Quels sont les ris­ques de répu­ta­ti­on liés à l’uti­li­sa­ti­on de la tech­no­lo­gie ? L’entre­pri­se est-elle publi­que, le public a‑t-il une rela­ti­on émo­ti­on­nel­le avec l’entre­pri­se ? Quel est le poids des pré­oc­cu­pa­ti­ons éthi­ques (mots clés : biais, équi­té et trans­pa­rence) ? L’entre­pri­se s’est-elle déjà enga­gée publi­quement à respec­ter des prin­cipes éthiques ?
  • Que fait l’entre­pri­se pour gagner de l’ar­gent ? Quel­le est l’im­portance de l’in­no­va­ti­on ? Quels pro­duits et ser­vices off­re-t-elle, main­tenant et à l’a­ve­nir ? L’IA peut-elle aider à amé­lio­rer les pro­duits ou les ser­vices, à déve­lo­p­per de nou­veaux pro­duits ou à amé­lio­rer l’expé­ri­ence client ?
  • Quels sont les ris­ques liés à l’uti­li­sa­ti­on de l’IA ? Quel­le est la sen­si­bi­li­té de l’entre­pri­se aux ris­ques opé­ra­ti­on­nels par exemp­le, quel­le est l’im­portance de la con­ti­nui­té des acti­vi­tés, dans quels domain­es ? Quel est le degré d’ex­po­si­ti­on de l’entre­pri­se aux ris­ques juri­di­ques ? Est-elle régle­men­tée, pro­po­se-t-elle des pro­duits cri­ti­ques, uti­li­se-t-elle une gran­de quan­ti­té de don­nées personnelles ?
  • À quel cad­re régle­men­tai­re l’entre­pri­se est-elle sou­mi­se ? Est-elle acti­ve, par exemp­le, dans le sec­teur finan­cier, de la san­té, des dis­po­si­tifs médi­caux ou des télé­com­mu­ni­ca­ti­ons ? Est-elle cotée en bour­se ? Quel­les sont les nor­mes ESG qu’el­le doit respec­ter, a‑t-elle des objec­tifs de durabilité ?
  • Quels sont les pro­ce­s­sus d’achat, de pro­duc­tion et de ven­te qui sont importants pour l’entre­pri­se ? Où exi­ste-t-il le plus grand poten­tiel d’a­mé­lio­ra­ti­on de l’ef­fi­ca­ci­té ? Comment ?
  • Quel­les sont les res­sour­ces dont dis­po­se l’entre­pri­se ? Quel­les res­sour­ces (don­nées, savoir-fai­re, infras­truc­tu­re, bud­get) serai­ent néces­saires ? Les don­nées exi­stan­tes, par exemp­le, sont-elles adap­tées à une uti­li­sa­ti­on de l’IA ?
  • Com­ment l’entre­pri­se peut-elle gérer le chan­ge­ment et l’app­ren­tis­sa­ge ? Les expé­ri­en­ces de pro­jets pilo­tes peu­vent-elles être uti­li­sées ? L’entre­pri­se dis­po­se-t-elle de col­la­bo­ra­teurs capa­bles d’ac­quérir les com­pé­ten­ces néces­saires en cas de besoin ?
  • Com­ment attri­buer la responsa­bi­li­té de l’uti­li­sa­ti­on de l’IA ? Y a‑t-il des orga­nes ou des rôles déjà exi­stants qui peu­vent être inté­g­rés ? Faut-il cré­er de nou­vel­les com­pé­ten­ces ou adap­ter les rôles exi­stants ? Le thè­me est-il ancré dans la direc­tion ? Exi­ste-t-il une appro­che struc­tu­rée des risques ?
  • Quel­le est la gou­ver­nan­ce exi­stan­te ? L’entre­pri­se dis­po­se-t-elle, par exemp­le, de systè­mes d’assu­rance qua­li­té, de pro­tec­tion des don­nées, de sécu­ri­té de l’in­for­ma­ti­on ou d’aut­res systè­mes de gesti­on dont des élé­ments peu­vent être uti­li­sés ou qui doi­vent être harmonisés ?
  • Quel­le est la tail­le et la com­ple­xi­té de l’entre­pri­se ? Quel est le degré de for­ma­li­sa­ti­on des pro­ce­s­sus qu’il peut gérer ou, inver­se­ment, quel est le degré de for­ma­li­sa­ti­on nécessaire ?

Com­me nous l’a­vons dit, il est important de com­prend­re le pay­sa­ge des ris­ques liés à l’IA de l’entre­pri­se et de l’éva­luer du point de vue de l’entre­pri­se. Cela peut inclu­re une ana­ly­se juri­di­que plus appro­fon­die. Par exemp­le, si une ent­re­pri­se fab­ri­que des dis­po­si­tifs médi­caux qui intègrent ou incor­po­rent des systè­mes d’IA et qu’el­le les vend sur le mar­ché de l’UE, le règle­ment de l’UE sur l’IA devi­ent per­ti­nent et le pro­duit peut très bien ent­rer dans la caté­go­rie des systè­mes d’IA à haut ris­que. Si l’entre­pri­se ne respec­te pas les direc­ti­ves cor­re­spond­an­tes, elle ris­que des amen­des, une att­ein­te à sa répu­ta­ti­on et des ris­ques opé­ra­ti­on­nels. L’ac­cent doit être mis sur le respect du règle­ment de l’UE sur l’IA lors de la mise en place de la gou­ver­nan­ce de l’IA.

Défi­nir des principes

Il s’est avé­ré uti­le, lors de la mise en œuvre d’u­ne gou­ver­nan­ce de l’IA, de défi­nir des prin­cipes Diri­ger l’uti­li­sa­ti­on de l’IA. Chaque ent­re­pri­se dev­ra défi­nir ses pro­pres prin­cipes – il n’e­xi­ste pas d’appro­che uni­ver­sel­le. Tou­te­fois, les prin­cipes essen­tiels com­pren­nent notam­ment la sécu­ri­té, l’é­qui­té, la trans­pa­rence, la qua­li­té et l’e­xac­ti­tu­de, la responsa­bi­li­té, la super­vi­si­on humaine et la dura­bi­li­té. Ces prin­cipes peu­vent s’in­spi­rer des objec­tifs et des con­trô­les men­ti­onnés dans la nor­me ISO 42001 (anne­xe C). Ils ne doi­vent pas rester des slo­gans bien sen­tis, mais être ani­més ; ce n’est tou­te­fois pas une rai­son pour y renon­cer en tant qu’i­dées directrices.

L’uti­li­sa­ti­on de la tech­no­lo­gie IA peut alors dif­fér­ents ris­ques en fonc­tion de l’ap­pli­ca­ti­on et du con­tex­te. Il peut donc être judi­cieux de fon­der la gou­ver­nan­ce de l’IA sur une appro­che basée sur les ris­ques, à l’in­star du règle­ment de l’UE sur l’IA (dont l’o­ri­en­ta­ti­on est tout à fait per­ti­nen­te). Pour ce fai­re, il con­vi­ent de défi­nir des critères de ris­que et, dans un deu­xiè­me temps, de défi­nir dif­fé­ren­tes exi­gen­ces en fonc­tion de la caté­go­rie de ris­que ou de pro­cé­der à une éva­lua­ti­on de l’im­pact du système d’IA (AI System Impact Assessment).

Défi­nir un cad­re clair

Un aspect cen­tral de la mise en œuvre est ensuite la créa­ti­on d’un “Cad­re de gou­ver­nan­ce de l’IALe cad­re de gou­ver­nan­ce de l’IA doit être défi­ni par un docu­ment de réfé­rence, com­me la situa­ti­on de départ géné­ra­le et les ris­ques, les objec­tifs de la gou­ver­nan­ce de l’IA, les défi­ni­ti­ons et le champ d’ap­pli­ca­ti­on, la caté­go­ri­sa­ti­on des systè­mes d’IA ain­si que les prin­cipes et les responsa­bi­li­tés. Il con­vi­ent d’é­ta­b­lir des direc­ti­ves aus­si clai­res, prag­ma­ti­ques et com­pré­hen­si­bles que pos­si­ble, et de défi­nir le champ d’ap­pli­ca­ti­on du cad­re et une pro­cé­du­re pour les excep­ti­ons (“excep­ti­on to policy”).

Un tel cad­re peut être plus ou moins com­ple­xe, mais il est essen­tiel qu’il soit adap­té à l’entre­pri­se et qu’il défi­nis­se clai­re­ment les prin­cipes essen­tiels. Cela per­met éga­le­ment de pro­té­ger les orga­nes de direc­tion, qui doi­vent défi­nir ces prin­cipes tout en délé­gu­ant effi­ca­ce­ment les tâches.

Il est recom­man­dé d’uti­li­ser une appro­che suc­ce­s­si­ve – là aus­si, il ne faut pas mour­ir en beau­té. Lors de la mise en œuvre, l’ac­cent dev­rait être mis dans un pre­mier temps sur les prin­ci­paux objec­tifs de gesti­on et les ris­ques per­tin­ents. Pour cela, il peut suf­fi­re d’é­ta­b­lir une poli­tique avec cer­tai­nes direc­ti­ves et notam­ment des responsa­bi­li­tés inter­nes, asso­ciée à un système de rap­ports et à l’im­pli­ca­ti­on d’un orga­nis­me indé­pen­dant – plus ou moins selon l’entre­pri­se – pour véri­fier l’ad­mis­si­bi­li­té. Au fil du temps – lorsque l’IA est uti­li­sée de maniè­re plus inten­si­ve ou pour des pro­ce­s­sus plus déli­cats – d’aut­res élé­ments peu­vent s’y ajou­ter, par exemp­le des regi­stres plus éla­bo­rés, des gril­les de con­trô­le défi­nies, des for­ma­ti­ons spé­ci­fi­ques à cer­ta­ins thè­mes, des direc­ti­ves con­trac­tu­el­les pour les four­nis­seurs, des recom­man­da­ti­ons d’un comi­té d’é­thi­que inter­ne, l’ap­pro­ba­ti­on de la direc­tion, etc.

Défi­nir les responsa­bi­li­tés et les compétences

Impli­quer les cadres

Même si des dépar­te­ments, des postes ou des fonc­tions spé­cia­li­sés sont cré­és : La direc­tion doit être impli­quée dans la créa­ti­on et la mise en œuvre de la gou­ver­nan­ce de l’IA. Sans cela, la Accep­t­ati­on de la gou­ver­nan­ce dans l’entre­pri­se, et inver­se­ment, les cad­res peu­vent veil­ler à ce que les res­sour­ces néces­saires soi­ent dis­po­ni­bles. Com­me nous l’a­vons déjà men­ti­onné, les diri­geants ont en out­re un inté­rêt pro­pre non seu­le­ment à poser les jalons stra­té­giques, mais aus­si à assu­mer effi­ca­ce­ment leurs responsabilités.
délé­guer, et cela sup­po­se aus­si que les des com­pé­ten­ces adap­tées à tous les niveaux – de la direc­tion, qu’il exi­ste un système de rapport
exi­ste et que les desti­na­tai­res des rap­ports sont en mesu­re de les comprendre.

Défi­nir les responsa­bi­li­tés pour les projets

Pour chaque pro­jet d’IA, l’entre­pri­se dev­rait ensuite dési­gner une per­son­ne ou une enti­té responsableIl s’a­git d’u­ne per­son­ne qui assu­me en inter­ne la responsa­bi­li­té de la con­for­mi­té (dans le sens d’u­ne “accoun­ta­bi­li­ty”) et qui déci­de, dans le cad­re de sa fonc­tion ou de ses com­pé­ten­ces, du déve­lo­p­pe­ment ou de l’uti­li­sa­ti­on d’un système d’IA (par ex. un busi­ness owner). En out­re, il est pos­si­ble de défi­nir une per­son­ne de cont­act qui ne doit pas néces­saire­ment cor­re­spond­re au Busi­ness Owner, mais qui se tient à dis­po­si­ti­on en tant que per­son­ne de cont­act direc­te en cas de questions.

Point de cont­act central

Il est à recom­man­der, une per­son­ne ou une unité d’entre­pri­se responsable de la gou­ver­nan­ce de l’IA être dési­gné com­me point de cont­act cen­tral. Elle joue un rôle clé dans le sui­vi et la mise à jour de la gou­ver­nan­ce de l’IA (ISO 42001 pré­voit par exemp­le un pro­ce­s­sus de signa­le­ment des pro­blè­mes (A.3.3), pour lequel il est uti­le de dis­po­ser d’un point de cont­act clair) et dev­rait dis­po­ser à la fois des com­pé­ten­ces tech­ni­ques néces­saires et d’u­ne auto­ri­té suf­fi­san­te au sein de l’entre­pri­se. Une tel­le enti­té peut être, par exemp­le, une équi­pe de gou­ver­nan­ce des don­nées exi­stan­te qui est fami­lia­ri­sée avec la col­la­bo­ra­ti­on inter­di­sci­pli­naire. Dans les gran­des ent­re­pri­ses qui s’oc­cup­ent depuis long­temps du thè­me de l’IA, on crée de plus en plus sou­vent un dépar­te­ment spé­ci­fi­que pour la gou­ver­nan­ce de l’IA.

Grou­pe de tra­vail interdisciplinaire

La com­ple­xi­té et la diver­si­té de la tech­no­lo­gie de l’IA exi­gent un lar­ge éven­tail de con­nais­sances et de com­pé­ten­ces. Au début, de nombreu­ses ent­re­pri­ses se trou­vent dans une pha­se d’o­ri­en­ta­ti­on, où elles n’ont pas enco­re une idée clai­re de la por­tée de la thé­ma­tique de l’IA pour l’entre­pri­se. Il vaut la pei­ne de con­sti­tuer au début un grou­pe de tra­vail inter­di­sci­pli­naire com­po­sé de per­son­nes issues de dif­fér­ents domain­es (p. ex. juri­stes ; experts en infor­ma­tique, en sécu­ri­té et en éthi­que ou per­son­nes issues du busi­ness lui-même) afin de prend­re en comp­te les dif­fér­ents aspects lors de la mise en œuvre de la gou­ver­nan­ce de l’IA.

Il est tou­te­fois important de distin­guer un tel grou­pe, au sens d’un comi­té d’ex­perts accom­pa­gnant, d’un comi­té de décis­i­on. En par­ti­cu­lier, les ent­re­pri­ses qui sont sou­mi­ses à un “Appro­che “Three Lines Les ent­re­pri­ses qui sui­vent le prin­ci­pe de la sépa­ra­ti­on ent­re les unités de reve­nus, le “busi­ness”, et une fonc­tion de com­pli­ance indé­pen­dan­te – ne dev­rai­ent pas saper cet­te sépa­ra­ti­on en faisant prend­re les décis­i­ons par des orga­nes mix­tes. En revan­che, rien ne s’op­po­se à ce que de tels comi­tés aient des responsa­bi­li­tés com­mu­nes. Fai­re des pro­po­si­ti­onsLes États mem­bres peu­vent déci­der de ne pas appli­quer les dis­po­si­ti­ons de la pré­sen­te direc­ti­ve, pour autant que cela ne com­pro­met­te pas l’in­dé­pen­dance des décisions.

Comi­té d’éthique

La gou­ver­nan­ce de l’IA va géné­ra­le­ment au-delà de la garan­tie de la con­for­mi­té. Les systè­mes d’IA ne doi­vent pas seu­le­ment être auto­ri­sés, mais aus­si dignes de con­fi­ance et éthi­ques. De nombreu­ses ent­re­pri­ses ont donc des con­seils ou des com­mis­si­ons d’é­thi­que ont été mis en placeLa Com­mis­si­on euro­pé­en­ne a mis en place un grou­pe de tra­vail char­gé d’ac­com­pa­gner les initia­ti­ves en matiè­re d’IA et de veil­ler à ce qu’el­les soi­ent con­for­mes aux nor­mes éthi­ques et aux valeurs sociétales.

Swis­s­com dis­po­se par exemp­le d’un Data Ethics Board qui s’oc­cupe éga­le­ment des pro­jets d’IA dès que ceux-ci pour­rai­ent être déli­cats d’un point de vue éthi­que. Les peti­tes ent­re­pri­ses peu­vent et dev­rai­ent éga­le­ment se pré­oc­cup­er des que­sti­ons éthi­ques, sur­tout si elles sont acti­ves dans des domain­es ou avec des don­nées déli­cats. Si l’IA doit être uti­li­sée pour éva­luer les don­nées des col­la­bo­ra­teurs (par exemp­le pour l’ana­ly­se des sen­ti­ments dont on par­le beau­coup actu­el­le­ment), c’est tou­jours le cas.

Com­mu­ni­ca­ti­on inter­ne et formation

La com­mu­ni­ca­ti­on inter­ne et la for­ma­ti­on sont des élé­ments essen­tiels de la gou­ver­nan­ce de l’AI. Les col­la­bo­ra­teurs doi­vent com­prend­re à quoi sert la gou­ver­nan­ce de l’IA et comment
sur leur tra­vail. Une com­mu­ni­ca­ti­on ouver­te et hon­nête à l’é­gard des col­la­bo­ra­teurs crée la con­fi­ance néces­saire. Cela néces­si­te une com­mu­ni­ca­ti­on com­pré­hen­si­ble et des mesu­res de for­ma­ti­on appro­priées (l’AI Act l’e­xi­ge de tou­te façon sous le mot-clé “AI Literacy”).

Pro­ce­s­sus itératif

La gou­ver­nan­ce de l’IA doit être con­sidé­rée com­me un pro­ce­s­sus con­tinu et ité­ra­tif. Elle n’est pas un pro­jet ponc­tuel qui s’ac­hè­ve après une pha­se de mise en œuvre (tout com­me d’aut­res bran­ches de la gou­ver­nan­ce). Les struc­tures et pro­ce­s­sus de la gou­ver­nan­ce de l’IA dev­rai­ent être régu­liè­re­ment con­trôlés et, le cas échéant, adap­tés être mis en œuvre. Les ent­re­pri­ses ne peu­vent pas réa­gir autre­ment aux nou­veaux défis et aux chan­ge­ments, qu’ils soi­ent de natu­re tech­no­lo­gi­que, régle­men­tai­re ou liés au mar­ché (et tout système ent­raî­ne des abus et des ralen­tis­se­ments – ne serait-ce que pour cet­te rai­son, les systè­mes dev­rai­ent tou­jours être adaptés).

Cet­te appro­che ité­ra­ti­ve est un pro­ce­s­sus de test, de véri­fi­ca­ti­on et d’ad­ap­t­ati­on qui vise à main­te­nir la gou­ver­nan­ce de l’IA à la poin­te de la tech­no­lo­gie, de la régle­men­ta­ti­on et de la pra­tique, mais qui sup­po­se en même temps une cul­tu­re d’app­ren­tis­sa­ge. Le feed-back des col­la­bo­ra­teurs doit être solli­ci­té en permanence.

Sur­veil­lan­ce con­ti­n­ue des systèmes

Enfin, les pro­ce­s­sus de gou­ver­nan­ce de l’IA dev­rai­ent pré­voir des “bil­ans de san­té” afin de sur­veil­ler en per­ma­nence les systè­mes d’IA qui ont déjà été con­trôlés. Afin de gar­der une vue d’en­sem­ble de tou­tes les appli­ca­ti­ons d’IA dans l’entre­pri­se, il est éga­le­ment indis­pensable, com­me nous l’a­vons men­ti­onné, de tenir un regist­re des systè­mes et des modè­les d’IA déve­lo­p­pés ou achetés.