Retour aux actualités
Actus

European AI Act : ce que les entreprises doivent anticiper dès 2025

15 janvier 2025
12 min de lecture
European AI Act : ce que les entreprises doivent anticiper dès 2025 - Actus - Actualités Ascent Formation

European AI Act : ce que les entreprises doivent anticiper dès 2025

Un tournant historique pour l'intelligence artificielle en Europe

Adopté en 2024, le Règlement (UE) 2024/1689, plus connu sous le nom de European AI Act, constitue la première législation mondiale encadrant de manière globale l'intelligence artificielle. Ce texte fixe les règles du jeu pour que les technologies d'IA soient sûres, transparentes et respectueuses des droits fondamentaux.

Son objectif est double : protéger les citoyens tout en encourageant l'innovation responsable. L'Union européenne souhaite ainsi instaurer un climat de confiance, indispensable à l'adoption massive de l'IA dans les entreprises.

Source : Règlement (UE) 2024/1689 – Journal officiel de l'Union européenne, 13 juin 2024.

Une approche fondée sur le risque

Le cœur du dispositif repose sur une classification par niveaux de risque :

  • Risque inacceptable : certaines pratiques d'IA sont interdites (manipulation comportementale, notation sociale, reconnaissance biométrique intrusive).
  • Risque élevé (high-risk) : concerne les systèmes utilisés dans des domaines sensibles (santé, emploi, éducation, sécurité, gestion du personnel) avec obligations strictes.
  • Risque limité : obligation de transparence, par exemple informer qu'un chatbot est animé par une IA.
  • Risque minimal : la majorité des usages courants, sans contrainte particulière.

Cette approche permet de protéger sans bloquer en adaptant la régulation à la criticité de chaque usage.

(classification issue du guide ActiveMind Legal)

Qui est concerné par le European AI Act ?

Le texte s'applique à toute organisation publique ou privée qui :

  • Développe, met sur le marché, intègre ou utilise un système d'IA au sein de l'Union européenne ;
  • Ou propose des produits et services d'IA accessibles à des utilisateurs européens, même depuis l'étranger.

Toute entreprise qui déploie ou exploite un système d'IA est donc concernée : du fournisseur de solution au simple utilisateur (RH, DSI, directions métiers, départements data et innovation).

(source : Fasken, 2024)

Les obligations clés à anticiper

1. Gestion des risques

Les entreprises doivent mettre en place un système de management du risque IA couvrant tout le cycle de vie du système : conception, test, déploiement, maintenance, retrait.

2. Documentation et traçabilité

Chaque modèle doit être documenté : données d'entraînement, conditions d'utilisation, niveaux d'autonomie, processus de supervision humaine. Objectif : assurer l'explicabilité des décisions de l'IA.

3. Transparence et supervision humaine

Les utilisateurs doivent savoir qu'ils interagissent avec une IA. Pour les usages à risque élevé, une intervention humaine reste obligatoire pour valider ou corriger les décisions automatisées.

4. Évaluation de conformité

Avant toute mise sur le marché, les systèmes à haut risque doivent passer par un audit de conformité. Des organismes européens vérifieront la conformité technique et documentaire.

(voir analyse Deloitte, 2024)

5. Gouvernance et formation

Les entreprises doivent prouver qu'elles maîtrisent leurs usages IA : politique interne, désignation de responsables, plan de formation et mise à jour continue.

Les échéances à connaître

  • Août 2024 : entrée en vigueur du règlement.
  • Février 2025 : application des interdictions pour les usages à risque inacceptable.
  • Août 2025 : obligations spécifiques pour les modèles d'IA à usage général (GPT, Gemini, Claude, etc.).
  • Août 2027 : pleine application pour les systèmes à haut risque.

Les premières obligations s'appliquent dès 2025 : les entreprises doivent se préparer dès maintenant.

(source : ArtificialIntelligenceAct.eu, 2024)

Pourquoi les directions générales et RH sont en première ligne

L'AI Act ne relève pas uniquement de la technique. Il engage la gouvernance, l'éthique, la cybersécurité et la gestion des talents. La conformité nécessite donc une implication directe des directions RH et de la direction générale.

Enjeux RH et managériaux

  • Revoir les usages IA dans le recrutement, l'évaluation et la formation.
  • Garantir la transparence et la non-discrimination.
  • Former les collaborateurs à la supervision et à la gouvernance des IA.

Enjeux stratégiques

  • Anticiper les audits et la documentation.
  • Identifier les fournisseurs conformes.
  • Adapter les politiques internes (sécurité, RGPD, gouvernance data).

Se mettre en conformité : par où commencer ?

  1. Cartographier les usages IA dans votre organisation.
  2. Identifier le niveau de risque de chaque système.
  3. Documenter : jeux de données, supervision, incidents.
  4. Former les équipes à l'IA responsable et à la conformité.
  5. Mettre à jour vos politiques internes et vos processus.

La formation : levier central de la conformité

Aucune stratégie de conformité ne fonctionne sans compétences humaines. Les collaborateurs doivent comprendre le fonctionnement, les limites et les risques des outils IA qu'ils utilisent.

Ascent Formation accompagne les organisations publiques et privées dans leur montée en compétences sur l'IA, la cybersécurité et la conformité. Nos programmes combinent cas réels, pédagogie appliquée et alignement réglementaire.

L'approche Ascent : expertise réglementaire et pédagogie appliquée

Avec des références telles qu'EDF, Thales, Orange, Total, Crédit Agricole ou le Ministère des Armées, Ascent Formation intervient sur des projets à forte valeur stratégique. Notre approche repose sur trois piliers :

  • Compréhension stratégique : décrypter le cadre juridique et ses implications concrètes.
  • Opérationnalisation : traduire les exigences de l'AI Act en plans d'action internes.
  • Formation et accompagnement : former décideurs, managers et collaborateurs à la gouvernance IA et à la conformité.

Accompagnement à la transformation de l'entreprise à l'ère de l'IA

Outiller les dirigeants et managers pour comprendre les impacts stratégiques, technologiques et humains de l'IA sur leur organisation.

Public : dirigeants, responsables innovation, DRH, DSI.

Objectif : bâtir une stratégie d'adoption de l'IA conforme au cadre européen.

Accompagner les ambassadeurs de l'IA dans leur mission

Donner aux référents IA les compétences nécessaires pour promouvoir une IA éthique, maîtrisée et conforme.

Public : managers, chefs de projet, ambassadeurs IA.

Objectif : piloter la transformation IA au sein des équipes, en lien avec la conformité AI Act.

Accompagnement managérial et conduite du changement

Intégrer la dimension humaine de la conformité IA et accompagner les transformations organisationnelles associées.

Public : dirigeants, responsables RH, managers d'équipes.

Objectif : garantir l'adhésion et la montée en compétences dans un contexte réglementé.

Transformer la conformité en opportunité

L'AI Act est une opportunité de renforcer la confiance, la transparence et la responsabilité dans l'usage de l'intelligence artificielle. Les entreprises qui s'y préparent dès aujourd'hui disposeront demain d'un avantage compétitif clair.

(analyse KPMG, 2024)

Certaines entreprises européennes ont exprimé des réserves sur le calendrier d'application, demandant plus de temps pour se conformer (Le Monde, 4 juillet 2025). Cependant, les échéances restent fixées, d'où l'importance d'anticiper dès maintenant.

Contactez Ascent Formation

Anticipez la mise en conformité AI Act dès aujourd'hui.

Nos experts accompagnent les entreprises dans la compréhension, la formation et la mise en œuvre du cadre réglementaire européen sur l'IA.

Contactez-nous pour bâtir votre plan de formation sur mesure.


Intéressé par nos formations ?

Découvrez notre catalogue complet de formations IT et trouvez celle qui correspond à vos besoins.