L’usage de l’intelligence artificielle dans les entreprises s’accélère : recrutement, suivi de la performance, gestion des absences, outils collaboratifs… Derrière ces outils se cachent souvent des traitements de données personnelles, parfois sensibles.
Pour les élus du CSE, il est essentiel de comprendre les enjeux de confidentialité, de connaître le rôle de la CNIL, et d’assumer leur devoir de vigilance.
Quels sont les enjeux de confidentialité liés à l’IA ?
Les systèmes d’IA traitent souvent des volumes massifs de données pour fonctionner : données RH, historiques de connexion, données de santé (ex : télétravail, RQTH), comportements en ligne, etc.

Principaux risques :
- Atteinte à la vie privée : collecte sans consentement, absence d’information des salariés.
- Surveillance excessive : IA utilisée pour noter les performances, analyser les comportements, détecter les "signes de désengagement".
- Discrimination algorithmique : biais dans les données entraînant des décisions injustes (recrutement, promotions...).
- Décisions automatisées sans intervention humaine, alors que le RGPD impose un droit à la contestation et à l’explication.
Le CSE doit poser des questions précises dès qu’un outil d’IA est utilisé dans l’entreprise.
Quel est le rôle de la CNIL ?
La CNIL (Commission nationale de l’informatique et des libertés) est l’autorité de référence en matière de protection des données personnelles. Elle joue un rôle crucial dans le cadre des projets IA en entreprise.
La CNIL :
- Encadre les traitements de données à caractère personnel.
- Peut sanctionner une entreprise qui ne respecte pas le RGPD (amendes, mises en demeure).
- Rend des avis et guides pratiques sur l’usage éthique de l’IA.
- Recommande la réalisation d’une AIPD (analyse d’impact) pour les traitements à risque.
La CNIL a publié en 2023 un guide « IA & données personnelles », très utile pour les élus du personnel.

Quel est le devoir de vigilance du CSE ?
Le CSE n’est pas responsable légalement des traitements de données, mais il a un rôle d’alerte, d’analyse et de dialogue avec la direction. Il peut :
Ce que le CSE peut (et doit) faire :
- Demander des informations claires sur les données utilisées par l’IA : quelles données ? pour quoi faire ? combien de temps sont-elles conservées ?
- Exiger une présentation des algorithmes ou outils automatisés s’ils ont un impact sur l’organisation du travail.
- Vérifier que les salariés sont informés et qu’ils ont donné leur consentement si nécessaire.
- Intervenir en cas de doute ou de non-conformité : alerte interne, recours à un expert, saisine de la CNIL.
Le CSE peut aussi négocier une charte éthique de l’IA, incluant un volet "protection des données".

Conclusion
L’intelligence artificielle est une opportunité pour moderniser le travail, mais elle ne doit jamais se faire au détriment des droits fondamentaux des salariés.
En tant qu’élus, vous avez un rôle essentiel à jouer pour garantir une IA éthique, transparente et respectueuse de la vie privée.
Didier FORNO
Formation du CSE
CEOLIS
Publié le 18/08/2025