Août 2026.
Le compte à rebours est officiellement enclenché.
Des milliers d’entreprises françaises n’ont aucune idée qu’elles sont déjà concernées par l’AI Act — et la plupart n’auront pas le temps de se mettre en règle. Voici ce que vous devez savoir, concrètement.
À retenir
- Échéance critique : Août 2026 pour les systèmes IA à haut risque
- Formation obligatoire : 15 heures minimum pour les décideurs (article 4)
- Sanctions maximales : 35 millions d’euros ou 7% du CA mondial
- Qui est concerné : Toute entreprise utilisant des outils IA (ChatGPT, Claude, etc.)
- 89% des PME françaises ignorent leurs obligations de formation IA
- Coût national estimé : 2,3 milliards d’euros pour la mise en conformité
- 73% des entreprises européennes utilisent au moins un système IA soumis à l’AI Act
Table des matières
- Qu’est-ce que l’AI Act, en clair
- Qui est concerné ? (entreprises utilisatrices)
- Les grandes échéances à retenir
- Les sanctions : ce que vous risquez concrètement
- L’obligation de formation : l’oubliée qui fait mal
- Les obligations minimales pour une PME
- Comment documenter sa conformité
- Les 3 erreurs qui vont coûter cher
- Comment se mettre en règle : roadmap 90 jours
Qu’est-ce que l’AI Act, en clair
L’AI Act (règlement européen UE 2024/1689 sur l’intelligence artificielle) est le premier cadre juridique mondial contraignant pour l’IA. Adopté par l’Union Européenne en 2024, il est entré en vigueur en août de la même année.
Sa philosophie : classer les systèmes IA selon leur niveau de risque et imposer des obligations proportionnelles.
Quatre catégories de risque :
- Risque inacceptable : pratiques interdites (manipulation comportementale, notation sociale)
- Haut risque : secteurs critiques (santé, transport, ressources humaines, éducation)
- Risque limité : obligations de transparence (chatbots, deepfakes)
- Risque minimal : pas d’obligations spécifiques (jeux vidéo, filtres anti-spam)
L’erreur fatale que commettent 9 entreprises sur 10 : croire que seuls les « géants de la tech » sont concernés. Faux. Si votre PME utilise ChatGPT pour la relation client, Claude pour la rédaction, ou un logiciel RH avec IA pour trier les CV, vous êtes un « déployeur » au sens de l’AI Act.
Et déployeur = obligations légales.
Qui est concerné ? (entreprises utilisatrices = « déployeurs »)
L’AI Act ne vise pas que les GAFAM ou les startups qui développent de l’IA. Il cible massivement les entreprises qui utilisent de l’IA dans leurs processus métier.
Vous êtes un « déployeur » si vous :
- Utilisez ChatGPT, Claude, Copilot pour votre activité professionnelle
- Avez un chatbot IA sur votre site web
- Utilisez un logiciel RH qui trie automatiquement les CV
- Déployez des outils de scoring client avec IA
- Utilisez des solutions de reconnaissance vocale ou visuelle
- Automatisez vos processus marketing avec de l’IA prédictive
Concrètement : Cette petite agence de communication qui utilise MidJourney pour créer des visuels clients ? Déployeur. Cette PME industrielle qui a installé un système de maintenance prédictive ? Déployeur. Ce cabinet comptable qui automatise la saisie avec de l’IA ? Déployeur.
73% des entreprises européennes sont dans ce cas. Et 89% des PME françaises ignorent leurs obligations.
Le réveil va être brutal.
Les grandes échéances à retenir
| Date | Obligations applicables | Qui est concerné |
|---|---|---|
| Février 2025 | Interdictions + Obligation formation (article 4) | Toutes entreprises utilisant l’IA |
| Août 2026 | Systèmes IA à haut risque (obligations complètes) | Secteurs critiques (RH, santé, finance) |
| Août 2027 | Systèmes IA à usage général (SIGUG) | Modèles de fondation (GPT, Claude, etc.) |
| Août 2030 | Extension aux systèmes existants | Tous les systèmes déployés avant 2026 |
L’échéance qui change tout : août 2026. C’est dans 6 mois. Si vous utilisez des systèmes IA dans le recrutement, l’évaluation salariale, l’octroi de crédit, l’orientation scolaire ou la santé, vous devez être en conformité totale.
Pas de période de grâce. Pas de « on verra plus tard ».
Les sanctions : ce que vous risquez concrètement
L’AI Act n’est pas un « gentil guide de bonnes pratiques ». C’est un règlement européen avec des sanctions administratives qui peuvent tuer une entreprise.
Barème des sanctions :
- Pratiques interdites : jusqu’à 35 millions d’euros OU 7% du CA mondial annuel
- Non-conformité systèmes haut risque : jusqu’à 15 millions d’euros OU 3% du CA
- Informations incorrectes aux autorités : jusqu’à 7,5 millions d’euros OU 1,5% du CA
Pour une PME qui fait 5 millions de CA, 7% représentent 350 000 euros. De quoi mettre la clé sous la porte.
Qui sanctionne en France ? L’ANSSI (cybersécurité), la CNIL (données personnelles), la DGCCRF (pratiques commerciales) selon la nature des infractions. Trois gendarmes, zéro tolérance.
Les contrôles ont déjà commencé. Les premières sanctions tombent en 2026.
L’obligation de formation (article 4) : l’oubliée qui fait mal
Voici l’obligation que personne ne voit venir : l’article 4 de l’AI Act impose une formation obligatoire à toute personne qui utilise des systèmes IA dans le cadre professionnel.
Minimum requis : 15 heures de formation pour les décideurs utilisant des systèmes à haut risque. Pour les autres collaborateurs, la durée est « proportionnée au risque » mais pas nulle.
Contenu obligatoire de la formation :
- Fonctionnement des systèmes IA utilisés
- Risques et limites de ces systèmes
- Règles d’usage éthique et légal
- Détection des biais algorithmiques
- Procédures de contrôle humain
Cette obligation est applicable depuis février 2025. 89% des PME françaises ne le savent pas.
Si un contrôleur débarque demain et demande les certificats de formation IA de vos équipes, vous répondez quoi ?
Formations Formations90 qui couvrent l’obligation article 4 :
- Formation Intégrer l’IA — cadre légal et usage professionnel
- Formation Développer son activité avec l’IA — approche métier et conformité
- Formation Améliorer l’efficacité avec l’IA — optimisation et contrôle des risques
Les obligations minimales pour une PME qui utilise de l’IA
Même si vous n’utilisez « que » ChatGPT ou Claude, vous n’échappez pas à certaines obligations. Voici le minimum syndical pour une PME déployeur :
1. Documentation d’usage
- Tenir un registre des systèmes IA utilisés
- Documenter les finalités d’usage
- Identifier les catégories de risque
- Désigner un responsable IA
2. Formation des utilisateurs
- Former tout collaborateur utilisant l’IA (minimum 15h pour haut risque)
- Maintenir les certificats de formation
- Mettre à jour les compétences régulièrement
3. Évaluation des risques
- Analyser l’impact sur les droits fondamentaux
- Identifier les biais potentiels
- Mettre en place des mesures de contrôle humain
4. Transparence client/utilisateur
- Informer que vous utilisez l’IA (chatbots, systèmes de recommandation)
- Expliquer le fonctionnement si impact significatif
- Permettre le recours humain
Ça parait beaucoup ? C’est le minimum légal. Les entreprises qui ne s’y préparent pas maintenant vont subir une mise en conformité forcée, dans l’urgence, avec des coûts décuplés.
Comment documenter sa conformité
La conformité AI Act, c’est d’abord de la documentation. Les contrôleurs vont demander des preuves écrites, pas des promesses orales.
Documents obligatoires à constituer :
Registre des systèmes IA
- Liste exhaustive des outils utilisés
- Classification par niveau de risque
- Finalités d’usage pour chaque outil
- Responsables désignés par système
Analyse d’impact
- Évaluation des risques sur les droits fondamentaux
- Mesures de mitigation mises en place
- Procédures de contrôle humain
- Tests de détection de biais
Preuves de formation
- Certificats de formation pour chaque utilisateur
- Programme détaillé des formations
- Évaluations de compétences
- Planning de mise à jour des connaissances
Procédures opérationnelles
- Guide d’usage pour chaque système IA
- Procédure de signalement d’incident
- Processus de recours utilisateur
- Méthode de supervision humaine
Cette documentation doit être maintenue à jour et accessible en cas de contrôle. Un dossier incomplet ou obsolète = sanction garantie.
Les 3 erreurs qui vont coûter cher à des milliers d’entreprises en 2026
Erreur n°1 : « On n’utilise que ChatGPT, on n’est pas concerné »
Faux. Utiliser ChatGPT pour rédiger des offres commerciales, analyser des CV ou conseiller des clients fait de vous un déployeur. Avec des obligations légales précises. L’outil ne fait pas la différence, c’est l’usage professionnel qui compte.
Erreur n°2 : « L’AI Act, c’est pour les grandes entreprises »
Re-faux. L’AI Act s’applique à partir du premier euro de CA si vous déployez de l’IA. Une micro-entreprise qui utilise un chatbot IA sur son site est soumise aux mêmes obligations de transparence qu’une multinationale. Les sanctions sont proportionnelles au CA, mais les obligations restent.
Erreur n°3 : « On a jusqu’en 2030 pour s’y mettre »
Triple erreur. L’obligation de formation (article 4) s’applique depuis février 2025. Les systèmes haut risque doivent être conformes en août 2026. Dans 6 mois. 2030, c’est juste l’extension aux anciens systèmes.
Ces trois erreurs résument pourquoi 89% des PME françaises ne sont pas préparées. Elles minimisent, elles reportent, elles subissent.
Les 11% qui anticipent prennent une longueur d’avance concurrentielle majeure.
Comment se mettre en règle : roadmap 90 jours
Jours 1-30 : Audit et inventaire
- Semaine 1 : Lister tous les outils IA utilisés (y compris les abonnements individuels)
- Semaine 2 : Classer chaque outil par niveau de risque AI Act
- Semaine 3 : Identifier les utilisateurs et leurs niveaux d’autorisation
- Semaine 4 : Désigner un responsable IA et constituer le registre initial
Jours 31-60 : Formation et procédures
- Semaine 5-6 : Organiser les formations obligatoires (15h minimum décideurs)
- Semaine 7 : Rédiger les procédures d’usage pour chaque système
- Semaine 8 : Mettre en place les mesures de contrôle humain
Jours 61-90 : Documentation et test
- Semaine 9 : Constituer le dossier de conformité complet
- Semaine 10 : Tester les procédures de recours et signalement
- Semaine 11 : Former les équipes aux nouvelles procédures
- Semaine 12 : Audit blanc et corrections finales
Budget estimé pour une PME 20 salariés :
- Formation équipes : 3 000-5 000€
- Consultant conformité : 5 000-8 000€
- Outils de documentation : 500-1 000€
- Total : 8 500-14 000€
Ça parait cher ? Une seule amende AI Act coûte entre 350 000€ et 2,4 millions d’euros pour cette même PME (selon son CA). Le calcul est vite fait.
Deux camps se dessinent pour 2026
D’un côté, les entreprises qui ont pris l’AI Act au sérieux. Équipes formées, documentation en ordre, procédures rodées. Elles gagnent la confiance de leurs clients, accèdent à des marchés publics qui exigent la conformité, et transforment une contrainte légale en avantage concurrentiel.
De l’autre, la masse qui découvre ses obligations sous la pression d’un contrôle. Mise en conformité dans l’urgence, coûts explosés, réputation écornée, sanctions possibles. Sans compter les clients qui partent vers la concurrence « propre ».
La différence entre ces deux camps ? Six mois d’anticipation.
L’AI Act n’est pas une punition. C’est une opportunité de professionnaliser votre usage de l’IA, de rassurer vos clients, et de prendre une longueur d’avance sur la concurrence qui va subir.
Formations90 accompagne cette transition avec des formations certifiantes qui répondent aux obligations de l’article 4. Nos parcours IA couvrent le cadre légal, les bonnes pratiques, et les compétences opérationnelles. Financement CPF possible, reste à charge 150€.
Août 2026, c’est dans 6 mois. Le compte à rebours ne s’arrêtera pas.