Actualité nationale

15.01.2026

Contrôles Caf : un nouvel algorithme plus transparent

La plupart des dossiers d’ contrôlés par la Caf sont identifiés automatiquement quand des incohérences sont détectées à la suite d’échanges de données avec d’autres organismes. Mais pour une petite partie des contrôles, 1% d’entre eux, les dossiers sont identifiés par un algorithme dit de “datamining” dont le rôle est d’estimer une probabilité de risque d’indu dans un dossier. Depuis janvier 2026, les Caf utilisent une nouvelle version de cet algorithme, revu dans un sens plus éthique et plus transparent.


Pourquoi les Caf contrôlent-elles des dossiers ?

Chaque mois, les Caf versent des prestations à 13,8 millions de . Leur mission est de veiller au juste droit, c’est‑à‑dire de verser le bon montant, au bon moment, en respectant l’égalité de traitement entre allocataires dans une même situation.
Pour assurer ce “juste droit”, la Caf réalise des contrôles : en effet, des erreurs peuvent se produire parce que les prestations reposent en partie sur des déclarations (ressources, situation familiale, logement…) et que la réglementation peut être complexe.

Cela peut entraîner :

  • un indu c’est-à-dire un trop‑perçu, une somme perçue à tort par un allocataire qu’il doit rembourser
  • ou au contraire un rappel, c’est à dire un calcul plus favorable à l’allocataire qui entraine donc un versement complémentaire en sa faveur.

Comment sont identifiés les dossiers contrôlés ?
En 2024, les Caf ont réalisé 31,5 millions de contrôles auprès de 6,4 millions d’allocataires.


La très grande majorité (environ 92%) correspond à des régularisations automatisées issues d’échanges de données avec d’autres organismes ; environ 8% sont des contrôles, sur pièces ou sur place, réalisés par des agents des Caf.

Pour 0,5% de l'ensemble des contrôles, 6,5% des contrôles sur place/pièces, les dossiers ciblés sont identifiés par un algorithme de “datamining”. Le datamining est une démarche statistique qui permet d’estimer une probabilité de risque d’indu dans certains dossiers, afin d’aider à mieux orienter une partie des contrôles.
 

Important : cet outil ne remplace pas l’intervention humaine.


Il n’automatise pas une décision : il fournit un indicateur de risque, et ce sont ensuite les agents qui décident des contrôles à réaliser, en tenant compte de la situation et de leurs règles de travail.


Comment a été élaboré ce nouvel algorithme ?

Début janvier 2026, les Caf mettent en service une nouvelle version de cet outil statistique appelé “Datamining Données entrantes 2026” (DMDE 2026).


Cette nouvelle version a été élaborée avec une approche dite “éthique dès la conception” et un objectif clair : renforcer la maîtrise, l’équité et la transparence de l’usage des données et des algorithmes. Cela passe par 3 actions préalables très concrètes : identifier les risques éthiques, définir des moyens pour les atténuer, et garantir la protection des droits des personnes.


Cette démarche s’est appuyée en 2025 sur :

  • l’adoption d’une charte encadrant le développement et l’usage des algorithmes
  • et la création d’un comité d’éthique, qui appuie la Cnaf pour identifier les risques et les moyens de les atténuer, notamment sur les sujets sensibles liés aux libertés publiques.

Dans la continuité de ce travail de transparence, la Cnaf a fait le choix de rendre public le code source de l’algorithme DMDE 2026, afin de permettre aux parties prenantes de mieux comprendre la logique générale de l’outil et d’éclairer le débat.


Quelles sont les garanties pour les allocataires ?

  • Pas de ciblage sur des données “sensibles” ou discriminantes : certaines informations ont été écartées dès la conception (notamment la nationalité, le genre, l’adresse,  le lieu de résidence).
  • Pas de données “de comportement” : l’outil n’utilise pas les informations liées à la manière dont une personne se connecte, contacte la Caf ou transmet des pièces.
  • Pas d’historique de contrôles ou de contentieux : ces informations ne sont pas intégrées pour limiter les effets de “renforcement”.
  • Un modèle conçu pour être compréhensible et contrôlable : la méthode est choisie pour être lisible et donc plus facilement explicable.

Ce qu’il faut retenir : 

  • DMDE 2026 est un outil d’aide : il fournit un indicateur, il ne décide pas automatiquement d’un contrôle.

  • Des garanties renforcées : certaines données sensibles (comme la nationalité, le genre, l’adresse) et les données de “comportement” ne sont pas utilisées.

  • Une démarche éthique : la Cnaf s’appuie sur un comité d’éthique et une charte pour encadrer l’usage des algorithmes.

  • Plus de transparence : la Cnaf rend public en open source le code source de l’algorithme DMDE 2026  CAF - Données et outils