La Charte éthique sur l’usage des algorithmes et de l’intelligence artificielle de la Cnaf

Créée en 1967, la branche Famille est l’une des composantes du régime général de la Sécurité sociale. Présente sur l’ensemble du territoire avec 101 caisses d’Allocations familiales (Caf), sa politique familiale et sociale repose sur trois missions principales :
 

  • L’accompagnement des familles par le versement des différentes prestations 
    familiales, et le financement de services dédiés à la petite enfance, à l’enfance, à la 
    jeunesse et au soutien aux parents.
  • L’accès et le maintien dans un logement de qualité, par le versement des aides au 
    logement et le suivi de leurs conditions.
  • La contribution à la cohésion sociale, par le versement du revenu de solidarité active, 
    de la prime d’activité, de l’allocation aux adultes handicapés, et le financement des 
    structures d’animation de la vie sociale.


Les prestations et les actions financées par les Caf sont de deux natures : 

  • Les prestations légales, principalement des aides financières versées sous forme de 
    compléments de revenus (prestations familiales, allocations logement, etc.) ou de 
    prestations de solidarité (Aah, Rsa...) ;
  • Les prestations extralégales d’action sociale : aides à l’investissement et au 
    fonctionnement d’équipements et de services (crèches, accueils de loisirs, centres 
    sociaux), accompagnement des familles en difficulté (aides aux vacances, 
    séparation), soutien à la parentalité. 


Les algorithmes et l’intelligence artificielle constituent une évolution technologique majeure, riche en opportunités pour les organismes de protection sociale. Afin de mobiliser ces leviers de manière éclairée et responsable, la Cnaf souhaite développer une stratégie basée sur la confiance, qui place l’éthique au centre de ses préoccupations. Cet usage doit permettre d’améliorer la qualité du service rendu aux et aux partenaires mais aussi les 
conditions de travail de chacun tout en respectant les valeurs de service public.


A cet égard, la Cnaf rappelle en préambule de cette charte la nécessité d’un respect absolu de la vie privée des allocataires et des salariés et des données personnelles y afférentes. 
 

La présente charte vise à couvrir tant les algorithmes que les technologies d’intelligence artificielle et de big data dont la création, l’usage, et les règles sont définis par la Cnaf et relèvent de sa responsabilité. Ce document fera régulièrement l'objet de révisions, notamment au regard des évolutions sociales, culturelles, technologiques et réglementaires. Les principes directeurs de la présente charte sont déclinés, pour ce qui concerne l’intelligence artificielle générative, dans un guide des bonnes pratiques diffusé à l’ensemble des collaborateurs, également actualisé de façon régulière. Par ailleurs, cette charte s’articule avec la charte nationale de sécurité de l’utilisateur du système d’information et la charte de la protection des données.

Nos engagements

1 Des finalités en adéquation avec notre mission de service public et notre responsabilité sociale

Les finalités de l’utilisation des algorithmes et de l’IA par la branche Famille de la Sécurité sociale sont strictement encadrées, dans le respect des valeurs et des obligations liées à sa mission de service public. Ainsi, le recours à ces outils obéit aux ambitions suivantes :

  • Utiliser les algorithmes et l’intelligence artificielle pour le bénéfice des allocataires, l’amélioration de la délivrance des services et du paiement du juste droit, dans la stricte limite des missions de l’organisme, et en conformité avec les lois applicables, notamment les règlements européens RGPD et IA ;
  • Concevoir des algorithmes et des solutions d’intelligence artificielle comme un levier pour améliorer les conditions de travail des salariés tout en valorisant leurs compétences et en renforçant leurs capacités de maîtrise des outils numériques et des usages des algorithmes ;
  • Contribuer à la réduction des inégalités liées à l’accès aux droits ;
  • Recueillir et n’utiliser que les informations strictement utiles et nécessaires à la conception des modèles d’algorithmes et des outils d’IA, dans le respect des principes de proportionnalité et de minimisation des données.

2 Des innovations au service de l’humain

Les innovations créées par les algorithmes et l’IA doivent préserver la dignité des personnes, l’empathie dans la relation, des marges de manœuvre dans l’utilisation de ces outils et les décisions qui en découlent et la possibilité d’un dialogue entre les utilisateurs, en veillant à l’inclusion de tous et en apportant les connaissances nécessaires à la compréhension et à l’utilisation de ces technologies. Ce principe repose sur la conviction que les algorithmes et l’IA doivent demeurer une assistance et non un substitut et que la relation et l’expertise humaines sont au cœur des attentes des allocataires et du métier des salariés de la Branche. Ainsi, la branche Famille s’engage à maintenir la relation privilégiée entre ses publics et les salariés des Caf par les canaux existants : accueils physique, téléphonique, … Cette attention s’exerce notamment au travers des ambitions suivantes :
 

  • Mettre en œuvre des actions d’accompagnement et de sensibilisation des allocataires à l’intelligence artificielle, et réunir les conditions de la confiance, dont la présente charte est garante ;
  • Mettre à disposition des publics des moyens de solliciter l’aide et l’intervention d’un agent, en vue notamment d’obtenir une explication sur le fonctionnement d’un service ;
  • Accompagner l’évolution des métiers, tout au long de leur carrière, en garantissant aux salariés des Caf et de la Cnaf la formation et l’information nécessaires pour utiliser les algorithmes et l’IA de façon efficace et éthique ;
  • Mettre en œuvre les conditions permettant aux utilisateurs d’exposer leurs éventuels recours auprès d’un interlocuteur humain et l’instruction de ce recours par un humain correctement formé et compétent, maitrisant l’outil numérique et en capacité d’intervenir sur le processus (dossier), notamment en informant sur les voies de recours possibles ;
  • Mettre en place un dispositif indépendant d’écoute et d’examen des plaintes liées aux décisions automatisées.

3 Des solutions garantes de l’égalité et de la non-discrimination

Des mesures doivent permettre de prévenir les risques de discriminations entre individus ou groupes d’individus, et ce, par la mise en œuvre de solutions fiables limitant les biais algorithmiques en positionnant différents points de contrôle. Le cadre d’interaction avec les solutions d’IA a pour visée de maintenir et de renforcer les compétences des salariés sans provoquer une dépendance excessive à ces technologies. Les algorithmes et les solutions d’IA sont ainsi positionnés comme des outils complémentaires à l’intervention humaine qui reste déterminante à toutes les étapes : paramétrage, alimentation, supervision et évaluation des 
informations et recommandations fournies par l’IA… Cette attention s’exerce notamment au travers des ambitions suivantes :
 

  • Maintenir l’autonomie des salariés de la Branche Famille et leur capacité à prendre des décisions éclairées avec l’assistance des outils algorithmiques ou d’IA, et en lien avec son autorité hiérarchique ;
  • Mettre en place des canaux de communication sécurisés et accessibles pour que les agents puissent signaler les biais observés ;
  • Mettre en place et consulter régulièrement le comité d’éthique sur les usages des données, des algorithmes et de l’intelligence artificielle de la Cnaf afin d’assurer une vision pluraliste de ces systèmes d’intelligence artificielle et se prémunir d’éventuels biais dans l’utilisation des outils mis en œuvre par les Caf et la Cnaf ;
  • Etablir une méthodologie de qualification des cas d’usage pour qualifier les potentiels, les risques et les contraintes associées, en lien avec le comité éthique ;
  • Évaluer les biais et risques par une analyse des résultats par sous-populations (âge, genre, zone géographique, situation socio-économique, etc.) et repérer les biais systémiques.
  • Garantir l’efficience et la maitrise des dispositifs intégrant de l’IA par une expérimentation préalable assortie de bilan et d’évaluation systématiques avant un déploiement ;
  • Surveiller et maintenir la qualité des données dans le temps pour garantir la stabilité de la performance des services proposés aux utilisateurs, et tester et contrôler régulièrement les systèmes pour nous assurer de leur pertinence et de leur fiabilité.
  • Assurer la conservation des versions successives des algorithmes et des données associées, pour permettre des audits internes et externes des décisions algorithmiques.

4 Le principe de la transparence

Afin de garantir la transparence envers les allocataires, la branche Famille de la Sécurité sociale signalera systématiquement l’utilisation d’algorithmes ou de systèmes d’intelligence artificielle et veillera à expliquer de manière compréhensible le fonctionnement de ce dernier, les résultats obtenus et l’exploitation qui est réalisée de ceux-ci. Cette attention s’exerce notamment au travers des ambitions suivantes :
 

  • Informer les utilisateurs (allocataires, salariés de la Branche...) des usages qui sont faits de leurs données et recueillir leur consentement éclairé lorsque celui-ci s’avère nécessaire ;
  • Expliquer les algorithmes et les systèmes d’intelligence artificielle aux utilisateurs (allocataires, salariés de la Branche...) de la façon la plus compréhensible possible, en prenant en compte ces exigences dès la phase de conception des services et solutions d’intelligence artificielle ; les explications préciseront les grands principes de fonctionnement, les données utilisées et les facteurs déterminants dans les résultats en sortie d’algorithme ;
  • Informer les allocataires lorsqu’ils sont en interaction avec un système d’intelligence artificielle ;
  • Permettre à chaque allocataire concerné par une décision automatisée de demander une explication compréhensible et contextualisée sur les facteurs ayant conduit à cette décision ;
  • Rendre accessibles et compréhensibles les méthodologies de traitement des données ;
  • Présenter un bilan au comité d’éthique sur les travaux menés en lien avec les algorithmes et l’intelligence artificielle. A terme, un rapport annuel sera présenté afin de garantir transparence, redevabilité, et amélioration continue, ce rapport mentionnera :
    • La cartographie des systèmes déployés
    • Les données utilisées
    • Les impacts mesurés
    • Les expérimentations et audits
    • Les signalements et recours
    • ….
  • Mettre en place un registre public des systèmes d’IA utilisés par la Branche, précisant leur 
    finalité, les données mobilisées, la base légale et le type de décisions concernées.

5 La sécurité au cœur des données et des solutions

La sécurité et la robustesse technique sont essentielles pour une utilisation en confiance des algorithmes et des technologies d’intelligence artificielle. Il s’agit aussi bien de garantir le respect de la vie privée des usagers tout au long du cycle de vie des solutions, que de s’assurer de la fiabilité et de la résilience aux attaques des services proposés. Cette attention s’exerce notamment au travers des ambitions suivantes :
 

  • Respecter la vie privée à travers la protection et la gouvernance attentive des données, en garantissant la non-communication des données à caractère personnel aux utilisateurs externes si le besoin n’est pas conforme à la loi ;
  • Protéger l’intégrité et l’inviolabilité des solutions déployées ;
  • Identifier les personnes susceptibles de recourir à l’un des services proposés et garantir les rôles et les droits adaptés à leurs activités, leurs besoins et leurs habilitations ;
  • S’employer à éviter toute attaque ou tentative de détournement des services ;
  • Respecter les obligations et préconisations formulées par l’ANSSI et la CNIL en matière de sécurisation des données et des systèmes d’IA.

6 Un cadre responsable et durable qui limite l’impact environnemental

Conscient des enjeux sociaux et environnementaux du numérique, la Cnaf adopte un cadre responsable et durable qui concourt à la réduction des émissions carbone. Le développement et l’utilisation d’algorithmes et de systèmes d’intelligence artificielle doivent s’inscrire dans une démarche respectueuse de l’environnement. Les impacts énergétiques varient selon le type de modèle utilisé, comme les grands modèles de langage (LLM). Il s’agit de limiter certains usages de l’IA trop néfastes pour l’environnement ou inappropriés au regard de 
l’ampleur des dépenses énergétiques associées. L’usage éclairé de l’intelligence artificielle est 
donc une nécessité d’optimisation de l’outil. Cette attention s’exerce notamment au travers 
de l’ambition suivante :

  • Poursuivre sa démarche pour un numérique responsable et minimiser l’impact environnemental lié au développement et à l’utilisation d’algorithmes et de systèmes d’intelligence artificielle ;
  • Intégrer des critères environnementaux dans les choix technologiques et étudier les alternatives à l’IA.
  • Privilégier l’utilisation de modèles simples et peu consommateurs de ressources dès lors qu’ils offrent des performances comparables à des systèmes plus complexes