Ven­te à emporter (AI)
  • Le troi­siè­me pro­jet de code de pra­tique aide les four­nis­seurs GPAIM à se con­for­mer à l’AI Act ; juri­di­quement non con­traignant, mais favo­ri­sant la conformité.
  • Les GPAIM sont de grands modè­les uti­li­sables par tous ; les four­nis­seurs doi­vent four­nir une docu­men­ta­ti­on tech­ni­que, des résu­més de don­nées de for­ma­ti­on et des stra­té­gies de droits d’auteur.
  • Les GPAISR sont des GPAIM pré­sen­tant des ris­ques sys­té­mi­ques ; ils sont sou­mis à des obli­ga­ti­ons de décla­ra­ti­on, à des éva­lua­tions stan­dar­di­sées et à des obli­ga­ti­ons éten­dues d’at­té­nua­ti­on des risques.
  • Le pro­jet défi­nit 18 obli­ga­ti­ons (2 pour tou­tes les GPAIM, 16 pour les GPAISR) en matiè­re de trans­pa­rence, de droits d’au­teur ain­si que de sécu­ri­té et de sûre­té, avec des mesu­res détaillées.

La Com­mis­si­on de l’UE a publié le troi­siè­me pro­jet de code de pra­tique pour les modè­les d’IA à usa­ge général :

GPAIM sont des modè­les d’IA à usa­ge géné­ral, ce qui est sup­po­sé être le cas lorsqu’un modè­le com­por­te au moins un mil­li­ard de paramè­tres et qu’il a été “ent­raî­né” à l’ai­de d’u­ne gran­de quan­ti­té de don­nées, avec une auto­sur­veil­lan­ce com­plè­te. Une GPAIM n’est pas un système d’in­tel­li­gence arti­fi­ci­el­le (AI), ni un AIS à usa­ge géné­ral – une GPAIM ne devi­ent un AIS qu’a­près l’a­jout de com­po­sants sup­p­lé­men­tai­res. Les obli­ga­ti­ons des four­nis­seurs de GPAIM sont régies par le Loi sur l’in­tel­li­gence arti­fi­ci­el­le (AI) dans un cha­pit­re spé­ci­fi­que. Les four­nis­seurs doi­vent notam­ment four­nir une docu­men­ta­ti­on tech­ni­que de cré­er le Four­nis­seurs d’AIS en aval four­nir de plus amp­les infor­ma­ti­ons sur le GPAIM, via une Stra­té­gie de mise en con­for­mi­té avec le droit d’au­teur de l’UE un résu­mé de la situa­ti­on Don­nées de for­ma­ti­on publier et, le cas échéant, dési­gner un mandataire.

GPAISR sont des GPAIM pré­sen­tant des ris­ques sys­té­mi­ques, c’est-à-dire des ris­ques qui, en rai­son de la “por­tée” du GPAIM ou de ses con­sé­quen­ces néga­ti­ves poten­ti­el­les “pour la san­té publi­que, la sécu­ri­té, la sûre­té, les droits fon­da­men­taux ou la socié­té dans son ensem­ble”, peu­vent avoir un impact important et se pro­pa­ger tout au long de la chaî­ne de valeur. Le GPAISR doit être noti­fié à la Com­mis­si­on et ses four­nis­seurs ont des obli­ga­ti­ons sup­p­lé­men­tai­res – ils doi­vent éva­luer le GPAIM de maniè­re stan­dar­di­sée, éva­luer et rédui­re les ris­ques sys­té­mi­ques au niveau de l’UE, docu­men­ter les infor­ma­ti­ons sur les inci­dents gra­ves et les mesu­res cor­rec­ti­ves pos­si­bles et, le cas échéant, infor­mer l’AI Office et les auto­ri­tés natio­na­les com­pé­ten­tes, et assurer une cyber­sé­cu­ri­té suffisante.

Voir à ce sujet not­re FAQ sur l’AI Act.

Dans ce con­tex­te, le Code de pra­tique un gui­de pour aider les four­nis­seurs de GPAIM à se con­for­mer à l’A­IA (art. 56 de l’A­IA) – pour fai­re la tran­si­ti­on ent­re les obli­ga­ti­ons des four­nis­seurs, qui s’ap­pli­que­ront à par­tir d’août 2025, et l’in­tro­duc­tion de nor­mes, pro­ba­blem­ent à par­tir d’août 2027. Il n’est pas juri­di­quement con­traignant, mais son respect crée une pré­somp­ti­on de con­for­mi­té avec les obli­ga­ti­ons des four­nis­seurs de GPAI (con­sidé­rant 117 : “Pro­vi­ders should be able to rely on codes of prac­ti­ce to demon­stra­te com­pli­ance with the obli­ga­ti­ons”). Voir ici pour plus d’in­for­ma­ti­ons sur le code de pratique.

Le troi­siè­me pro­jet dev­rait être lar­ge­ment mûr, mais il subi­ra sans dou­te enco­re quel­ques aju­stem­ents avant son adop­ti­on fina­le en mai 2025, grâ­ce à la pha­se de feed­back qui se déroule jus­qu’au 30 mars et à des ateliers.

Le pro­jet pré­voit 18 Obli­ga­ti­ons deux pour tous les four­nis­seurs d’AM­PI et 16 aut­res pour les four­nis­seurs de GPAISR. Ces obli­ga­ti­ons sont répar­ties en trois domain­es principaux :

Qui est concerné Enga­ge­ment Mesu­re
Trans­pa­rence
tous les GPAIM Docu­men­ta­ti­on (I.1) Mesu­re I.1.1 : Cré­er et tenir à jour une docu­men­ta­ti­on sur les modè­les afin de satis­fai­re aux exi­gen­ces de l’ar­tic­le 53(1)(a) et (b) de l’AI Act.
Action I.1.2 : four­nir des infor­ma­ti­ons aux four­nis­seurs en aval et à l’AI Office sur deman­de, afin de per­mett­re l’in­té­gra­ti­on des modè­les dans les systè­mes d’AI et de sou­te­nir les tâches de sur­veil­lan­ce des auto­ri­tés com­pé­ten­tes nationales.
Mesu­re I.1.3 : Garan­tir la qua­li­té, la sécu­ri­té et l’in­té­gri­té des infor­ma­ti­ons docu­men­tées afin d’assurer la fia­bi­li­té des modèles.
Modi­fi­ca­ti­on: intro­duc­tion d’un for­mu­lai­re de docu­men­ta­ti­on de modè­le con­vi­vi­al pour sim­pli­fier la documentation.
Droit d’au­teur
tous les GPAIM Direc­ti­ve sur le droit d’au­teur (I.2) Mesu­re I.2.1 : éla­bo­rer et mett­re en œuvre une direc­ti­ve actua­li­sée sur le droit d’au­teur afin de garan­tir le respect des dis­po­si­ti­ons du droit de l’U­ni­on en matiè­re de droit d’au­teur et de droits voisins.
Mesu­re I.2.2 : Iden­ti­fi­ca­ti­on et respect des droits réser­vés con­for­mé­ment à l’ar­tic­le 4(3) de la direc­ti­ve (UE) 2019/790.
Mesu­re I.2.3 : Mise en œuvre de tech­no­lo­gies de recon­nais­sance et de respect des droits d’auteur.
Mesu­re I.2.4 : Créa­ti­on de pro­ce­s­sus pour le trai­te­ment des vio­la­ti­ons de droits d’auteur.
Mesu­re I.2.5 : Docu­men­ta­ti­on du respect des droits d’auteur.
Mesu­re I.2.6 : Révi­si­on et mise à jour régu­liè­res de la direc­ti­ve sur le droit d’auteur.
Modi­fi­ca­ti­on: Exi­gen­ces plus stric­tes en matiè­re d’i­den­ti­fi­ca­ti­on et de respect des droits d’auteur.
Sécu­ri­té et sûreté
GPAISR Iden­ti­fi­ca­ti­on et ana­ly­se des ris­ques (II.1) Mesu­res visa­nt à iden­ti­fier en per­ma­nence les ris­ques sys­té­mi­ques à l’ai­de de la taxo­no­mie des ris­ques du CdP. Ana­ly­se de la pro­ba­bi­li­té et de la gra­vi­té des ris­ques et caté­go­ri­sa­ti­on en niveaux de risque.
Modi­fi­ca­ti­onTaxo­no­mie et ana­ly­se des ris­ques plus détail­lées dans le troi­siè­me projet.
GPAISR Coll­ec­te de preu­ves et éva­lua­ti­on de modè­les (II.2) Mesu­res visa­nt à recu­eil­lir des preu­ves de ris­ques sys­té­mi­ques et à éva­luer les capa­ci­tés et les limi­tes des modè­les d’IA con­for­mé­ment aux règles du CdP.
Modi­fi­ca­ti­onExi­gen­ces plus stric­tes en matiè­re de coll­ec­te de preu­ves et d’éva­lua­ti­on des modèles.
GPAISR Cycle d’éva­lua­ti­on des ris­ques (II.3) des mesu­res d’éva­lua­ti­on con­ti­n­ue des ris­ques tout au long du cycle de vie du modèle.
Modi­fi­ca­ti­on: accent mis sur la sur­veil­lan­ce continue.
GPAISR Réduc­tion des ris­ques (II.4) Mesu­res visa­nt à asso­cier chaque niveau de ris­que à des mesu­res de sécu­ri­té et de sûre­té appropriées.
Modi­fi­ca­ti­on: mesu­res plus détail­lées de réduc­tion des risques.
GPAISR Rap­ports sur la sécu­ri­té et la sûre­té (RSS) (II.5) Mesu­res pour l’é­la­bo­ra­ti­on et la mise à jour régu­liè­re de rap­ports de sécu­ri­té et de sûre­té afin de docu­men­ter les éva­lua­tions de ris­ques et de réduction.
Modi­fi­ca­ti­on: Mise à jour régu­liè­re des rapports.
GPAISR Gou­ver­nan­ce des ris­ques (II.6) des mesu­res visa­nt à attri­buer des responsa­bi­li­tés et des res­sour­ces pour les ris­ques sys­té­mi­ques au niveau de l’exé­cu­tif et du con­seil d’administration.
Modi­fi­ca­ti­on: Mett­re davan­ta­ge l’ac­cent sur la gouvernance.
GPAISR Mesu­res de sécu­ri­té visa­nt à empêcher les accès non auto­ri­sés (II.7) Mesu­res visa­nt à mett­re en œuvre des mesu­res de sécu­ri­té cor­re­spond­ant au moins à l’ob­jec­tif de sécu­ri­té RAND SL3.
Modi­fi­ca­ti­on: objec­tifs de sécu­ri­té con­crets fixés
GPAISR Rap­ports sur la sécu­ri­té et la sûre­té (II.8) des mesu­res visa­nt à éta­b­lir des rap­ports de sécu­ri­té et de sûre­té con­tenant les résul­tats de l’éva­lua­ti­on et de l’at­té­nua­ti­on sys­té­mi­ques des risques.
Modi­fi­ca­ti­on: Rap­ports plus détaillés.
GPAISR Réduc­tion des ris­ques sys­té­mi­ques par la con­cep­ti­on (II.9) Mesu­res visa­nt à mett­re en œuvre des prin­cipes de con­cep­ti­on pour mini­mi­ser les ris­ques systémiques.
Modi­fi­ca­ti­on: mett­re l’ac­cent sur l’é­qui­té et la transparence.
GPAISR Sui­vi et mise à jour con­ti­nus (II.10) Mesu­res de sur­veil­lan­ce con­ti­n­ue et de mise à jour régu­liè­re des modèles.
Modi­fi­ca­ti­on: Mett­re davan­ta­ge l’ac­cent sur la sur­veil­lan­ce continue.
GPAISR Coopé­ra­ti­on avec des par­ten­aires exter­nes (II.11) des mesu­res de col­la­bo­ra­ti­on avec des par­ten­aires exter­nes pour iden­ti­fier et rédui­re les ris­ques systémiques.
Modi­fi­ca­ti­on: importance accrue de la coopération.
GPAISR Rap­port d’in­ci­dents gra­ves (II.12) Mesu­res de sur­veil­lan­ce, de docu­men­ta­ti­on et de noti­fi­ca­ti­on des inci­dents graves.
Modi­fi­ca­ti­onMéca­nis­mes de noti­fi­ca­ti­on plus précis.
GPAISR pro­tec­tion cont­re la non-réta­blis­se­ment (II.13) Mesu­res de pro­tec­tion des col­la­bo­ra­teurs qui signalent des risques.
Modi­fi­ca­ti­on: Accent plus fort sur la protection.
GPAISR Noti­fi­ca­ti­ons (II.14) Mesu­res visa­nt à infor­mer régu­liè­re­ment l’AI Office de la mise en œuvre des engagements.
Modi­fi­ca­ti­on: Rap­ports réguliers.
GPAISR Docu­men­ta­ti­on (II.15) Mesu­res visa­nt à docu­men­ter les infor­ma­ti­ons per­ti­nen­tes con­for­mé­ment à l’AI Act.
Modi­fi­ca­ti­onExi­gen­ces de docu­men­ta­ti­on plus détaillées.
GPAISR Trans­pa­rence publi­que (II.16) Mesu­res de publi­ca­ti­on d’in­for­ma­ti­ons pour la trans­pa­rence publi­que sur les ris­ques systémiques.
Modi­fi­ca­ti­on: Trans­pa­rence accrue.