● Silicon.fr Télécom 📅 27/03/2026 à 12:07

AI Act : un report à 2027 voire 2028 se dessine

Cybersécurité 👤 Clément Bohic
Illustration
La perspective d’une entrée en application de l’AI Act en août 2026 s’éloigne. Le Parlement européen vient d’adopter sa position sur l’omnibus numérique. Il propose que les dispositions concernant les systèmes d’IA classés à haut risque ne s’appliquent qu’en décembre 2027 pour ceux listés dans le règlement. Et en août 2028 pour ceux couverts par la législation d’harmonisation (règlements et directives sectoriels : jouets, dispositifs médicaux, équipements radioélectriques…). Les autres échéances, passées ou à venir, ne sont globalement pas remises en cause. Ainsi pour les chapitres I et II (dispositions générales et pratiques interdites), qui s’appliquent depuis février 2025. Et pour les éléments qui s’appliquent depuis août 2025 (obligations des fournisseurs de modèles d’IA à usage général, sanctions, gouvernance au niveau de l’UE…). La Commission européenne n'avait pas fixé de dates dans sa proposition d'omnibus numérique. Elle avait toutefois conditionné l'entrée en application des dispositions en question à la disponibilité de mesures de soutien à la conformité - avec un délai de 6 mois après pour les systèmes d'IA à haut risque listés dans l'AI Act et de 12 mois pour ceux couverts par la législation d'harmonisation. Le Parlement ne veut pas d'exception à l'enregistrement de certains systèmes d'IA Les eurodéputés proposent par ailleurs d'interdire explicitement les systèmes d'IA qui génèrent des contenus à caractère sexuel, « sans préjudice à la liberté d'expression et d'information ». À la proposition de la Commission européenne, ils ajoutent des précisions relatives à l'interaction avec d'autres textes. Parmi eux, le Cyber Resilience Act. Leur amendement : si un système d'IA à haut risque est conforme à cette législation, il doit être réputé conforme à l'article 15 de l'AI Act (« Exactitude, robustesse et cybersécurité »). Un autre amendement porte sur l'enregistrement, dans une base de données européenne, des systèmes d'IA à haut risque listés dans l'annexe III (biométrie, infrastructures critiques, éducation, emploi, justice...). La Commission envisageait une exception pour les systèmes dont les fournisseurs ne considèrent pas qu'ils présentent un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux. Le Parlement estime que leur enregistrement est nécessaire pour la surveillance du marché et compte plutôt simplifier la procédure. Encourager les partenariats public-privé pour la sensibilisation Le Parlement apporte également une précision sur la classification même des systèmes à haut risque. En la matière, l'AI Act établit des critères cumulatifs. Parmi eux, le fait qu'un système d'IA est utilisé comme composant de sécurité d'un produit que couvre la législation d'harmonisation. Les eurodéputés ont tenu à préciser qu'une telle intégration n'implique pas forcément que le système d'IA remplit une fonction de sûreté. Ne devraient pas être considérées ainsi les fonctionnalités pensées seulement pour l'assistance utilisateur, l'optimisation de performance, l'automatisation ou encore le contrôle qualité d'aspects non liés à la sûreté. Ce aussi longtemps que leur défaillance ne crée pas directement des risques pour la santé ou la sûreté. En matière de sensibilisation (literacy), le Parlement préfère parler de « compétences » que de « notions ». Il supprime la référence à l'Apply AI Alliance comme canal d'échange avec la communauté. À la place, il encourage les partenariats public-privé, notamment pour accompagner les petites et moyennes entreprises. Une compétence un peu moins exclusive pour le Bureau de l'IA La Commission européenne, qui héberge le Bureau de l'IA, souhaite lui donner une compétence exclusive sur certains sujets. En particulier la supervision de l'essentiel des systèmes d'IA basés sur des modèles à usage général développés par le même fournisseur. Le Parlement ne lui accorde pas cette exclusivité. De plus, il donne explicitement aux autorités des États membres le pouvoir de superviser les systèmes d'IA intégrésdans des « très grandes plates-formes en ligne » ou dans des « très grands moteurs de recherche » (terminologie DMA/DSA). Et il remplace « Bureau de l'IA » par « Commission » sur des aspects comme l'encouragement à la diffusion de codes de bonnes pratiques. Pour ce qui est des tests en conditions réelles, le Parlement a supprimé cette possibilité pour les systèmes d'IA couverts par la législation d'harmonisation. Il ne l'a maintenue que pour ceux listés dans l'annexe III de l'AI Act. Des sanctions moins dures pour les small caps Sur le volet sanctions, les eurodéputés proposent d'être moins « dur » avec les small caps. En l'état, l'AI Act instaure, en cas de non-conformité aux obligations faites aux fournisseurs, importateurs, distributeurs et déployeurs, une amende jusqu'à 15 M€ ou 3 % du CA annuel mondial, le montant le plus élevé étant retenu. Les eurodéputés proposent de retenir le montant le moins élevé. Une date serait avancée. Elle concerne les systèmes d'IA mis sur le marché avant le 2 août 2026. Leur conformité aux obligations de transparence - article 50(2) - devrait être effective pour novembre 2026 et non plus février 2027. Illustration générée par IA
← Retour