Le 15 janvier dernier, la Caisse nationale des allocations familiales (CNAF) a dévoilé le code source de la dernière version de son algorithme de notation des allocataires. Cette annonce s’est accompagnée d’une campagne de communication de l’administration visant à présenter cette nouvelle version comme répondant aux critiques auxquelles l’algorithme fait face depuis plusieurs années, alors que 25 organisations européennes menées par La Quadrature du Net attaquent la CNAF en justice. À l’entendre, ce nouvel algorithme garantirait « la protection des droits des personnes » et « l’équité » de tous·tes face aux pratiques de contrôle de l’institution. Mais cette opération de communication vise à masquer l’essentiel : l’analyse du code et une étude de la CNAF elle-même montrent que le nouvel algorithme discrimine toujours les mêmes populations.Rappelons l’affaire avant de continuer : depuis 2010, la CNAF (Caisse nationale des allocations familiales), utilise un algorithme pour orienter ses contrôles. Cet algorithme recherche les indus, c’est-à-dire les foyers qui auraient reçu plus de prestations sociales que ce à quoi ils ont droit. La plupart du temps, ces indus existent en raison d’erreurs de déclaration, parce que les conditions pour recevoir des prestations sociales se complexifient lorsqu’elles concernent les personnes les plus pauvres. Chaque mois, chaque foyer se voit attribuer par l’algorithme un score, compris entre 0 et 1, qui représente la probabilité que, si un contrôle était ouvert, un indu de plus de 600€ par mois sur 6 mois soit trouvé. Et comme l’objectif de cet algorithme est d’orienter les contrôles vers les dossiers les plus faciles, la conséquence est que plus le score d’un foyer est élevé, plus le risque de contrôle est important.Quatre versions de l’algorithme ont été utilisées depuis la mise en place de ce système : une version conçue en 2010 (où trois « sous-modèles » calculaient trois scores, le plus élevé étant retenu) ; une version conçue en 2014 (cette fois à modèle unique) ; une version de 2018 (à modèle unique aussi, que la CNAF vient tout juste de publier en catimini) ; et la toute nouvelle version conçue en 2025 et mise en œuvre en 2026 (publiée par la CNAF en janvier).En 2022, La Quadrature du Net a commencé à travailler sur cet algorithme. Nous avons donc demandé à obtenir le code source et – plus important encore – les variables et pondérations. Si l’algorithme en cours d’utilisation (version 2018 à cette date) ne nous avait alors pas été communiqué, nous avions eu accès à une ancienne version de l’algorithme et nous avions pu démontrer son caractère intrinsèquement discriminant (voir notre analyse et nos explications).Un nouvel algorithme ?En début d’année, la CNAF a modifié son algorithme et a publié le code de cette « nouvelle » version. Cette version, utilisée depuis janvier dernier, apporte des modifications mineures par rapport à l’algorithme que nous avions pu analyser en 2023 (version 2014). Ainsi, on ne retrouve plus de critère qui augmente le score si la personne bénéficie de l’allocation adulte handicapé (AAH) et travaille, ce qui avait fait grand bruit quand nous l’avions révélé. Exit également l’analyse des comportements : la CNAF n’utilise désormais plus le nombre de connexions au site caf.fr, le nombre d’e-mails envoyés ou le nombre de changements de code postal, comme c’était le cas auparavant. La toute récente publication de la version 2018 de l’algorithme montre que la CNAF a également fait le ménage parmi des critères particulièrement scandaleux : ne sont notamment plus utilisés des critères comme le fait d’avoir attaqué en justice sa CAF, de ne pas être de nationalité française, ou de vivre dans un quartier défavorisé1D’autres critères discriminatoires qui étaient présents dans la version 2018 ont été supprimés comme le fait de vivre dans une résidence sociale, un foyer de jeunes travailleurs ou dans une chambre d’hôtel, ou encore de garder son logement étudiant pendant l’été. jQuery('#footnote_plugin_tooltip_27220_2_1').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_1', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.Mais derrière cette amélioration de façade, rien ne change. Les personnes pauvres ou précaires sont toujours directement ciblées. Le score de risque augmente ainsi toujours lorsque les personnes bénéficient de certaines prestations sociales (revenu de solidarité active, complément familial, allocation de soutien familial, allocation de rentrée scolaire ou encore l’allocation d’éducation de l’enfant handicapé) ou pour celles qui auraient le droit à une pension alimentaire (qu’elle ait été touchée ou non). Également, le fait d’avoir des revenus faibles fait toujours augmenter le score2Les foyers ayant entre 0,6 et 1,5 fois le SMIC auront un score plus élevé. La CNAF ne précise pas si le calcul se fait par personne ou pour l’ensemble du foyer. jQuery('#footnote_plugin_tooltip_27220_2_2').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_2', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.Pire encore : la CNAF avait introduit dans son algorithme de 2018 des critères ciblant sans équivoque les personnes précaires, critères qui sont aujourd’hui encore utilisés dans la version 2025 et multipliés. Un critère de cumul des prestations sociales a notamment été introduit dans la version 2025 pour cibler les personnes bénéficiant de plus de trois prestations. Les personnes qui touchent plus de 200 euros d’allocations par mois verront également leur score augmenter, comme c’était déjà le cas dans la version 2018 (seul le seuil a changé). Ce nouvel algorithme recherche également toujours la précarité professionnelle puisque les personnes subissant l’ubérisation du monde du travail et qui déclarent une activité non-salariée, les personnes dont le conjoint ne travaille pas, ou celles qui entrent ou sortent du RSA (parce qu’elles ont pu trouver un revenu leur retirant temporairement le droit au RSA) subiront encore un score plus élevé.Les mêmes populations concernéesDès lors, quel impact attendre de ces changements sur les profils des personnes ciblées par l’algorithme ? Aucun, et c’est ici un document de la CNAF elle-même qui le prouve.En octobre 2025, la direction des statistiques, des études et de la recherche (DSER) de la CNAF a réalisé une étude consistant à « simuler » les scores pour différents types de profils socio-économiques (allocataires au RSA, mères isolées, personnes à faibles revenus, …) afin d’identifier les cas de « sur-ciblage », donc les discriminations, dont les allocataires peuvent faire l’objet. Pour cela, cette étude a analysé la part des différentes catégories d’allocataires étudiées dans les 5 % des plus hauts scores – soit les personnes qui auront le plus de risque de se faire contrôler. L’étude a été réalisée pour le modèle 2018 et le nouveau modèle 2025.Présentée par la CNAF en octobre dernier à son comité d’éthique sur les usages des données, des algorithmes et de l’intelligence artificielle, organe consultatif lancé en mars 20253Ce comité, dont l’objectif est d’aiguiller les choix de la CNAF sur l’usage de nouvelles technologies, notamment l’usage d’algorithmes, n’a qu’un pouvoir consultatif (il n’a pas le pouvoir d’empêcher la CNAF d’utiliser une technologie). Il est composé d’expert·es, de directeur·rices de la CNAF, des membres du conseil d’administration de la CNAF, et de représentant·es d’associations. La Quadrature ne fait pas partie de ce comité, mais d’autres associations parties au contentieux en cours le sont : notre coalition d’organisations a donc pu utiliser les résultats de cette étude dans le recours actuel contre l’algorithme (voir le mémoire en réplique de décembre 2025 qui revient sur la version 2018 de l’algorithme et le mémoire en observations de janvier 2026 qui revient sur le nouveau modèle 2025). jQuery('#footnote_plugin_tooltip_27220_2_3').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_3', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });, cette étude montre que, tout comme pour le modèle précédent de 2018, les personnes précaires sont surreprésentées dans le nouvel algorithme 2025 au sein du groupe des 5 % des plus hauts scores. C’est-à-dire qu’elles subissent une discrimination par la plus forte probabilité de devoir faire face à des contrôles.Ainsi, les bénéficiaires du RSA représentaient 13 % des allocataires en 2024 mais entre 39 et 41% des 5% des scores les plus élevés dans le modèle 20254Au total, la DSER identifie que sont surreprésenté·es les bénéficiaires de la prime d’activité ; du RSA ; de l’aide au logement ; du complément familial ; de l’allocation de soutien familial ; de l’allocation de rentrée scolaire ; de l’allocation d’éducation de l’enfant handicapé. jQuery('#footnote_plugin_tooltip_27220_2_4').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_4', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Les mères isolées, quant à elles, représentaient 14 % des allocataires en 2024 mais 37 à 40 % des plus hauts scores dans les simulations sur le modèle 2025. Cette étude a également mis en lumière une surreprésentation des personnes qui ont plus de trois prestations sociales, celles qui touchent plus de 600 euros de prestations par mois ou encore les foyers dont une des personnes est au chômage.Enfin, la CNAF a beau mettre l’accent dans sa communication sur le fait qu’elle n’utilise plus de critère de nationalité, l’étude montre cependant que les foyers composés au moins d’une personne de nationalité étrangère ont, dans les faits, toujours plus de risque d’avoir un score plus élevé. Et la situation est encore aggravée pour les personnes ayant une nationalité hors de l’Union européenne. Un cas d’école de discrimination fondée sur la nationalité…Les surreprésentations mises en évidence par cette étude de la DSER s’expliquent par le fait que les personnes en situations de pauvreté ou de précarité vont cumuler différents critères, qui sont autant de « facteurs de risques » utilisés par l’algorithme. La surreprésentation des personnes au RSA ou des mères isolées peut ainsi s’expliquer par des revenus plus faibles, ou des instabilités dans les revenus. On voit alors tout l’intérêt de réaliser des analyses par profils plutôt que d’analyser les variables prises isolément.Ne surtout pas se remettre en questionFace à ces éléments, la CNAF s’est lancé aujourd’hui dans une stratégie d’intimidation face à nos organisations qui contestent la légalité de son algorithme en prenant appui sur cette étude de la DSER. Dans son mémoire de janvier dernier, la CNAF a écrit qu’elle s’« interroge sur ses conditions d’obtention » et se montre menaçante puisqu’elle n’exclue pas que « des suites [puissent] être réservées à cet élément » (bien qu’elle reste floue sur lesdites « suites » envisagées).La Quadrature dénonce une tentative d’intimidation sur nos organisations : ce document a été envoyé par la CNAF elle-même aux organisations de son comité d’éthique, dont certaines sont également requérantes dans ce contentieux5Précisons, par souci de transparence, que La Quadrature du Net, qui ne fait pas partie du comité d’éthique de la CNAF et n’a donc pas eu accès à ce document, a fait une demande de communication de document administratif pour obtenir cette étude. La CNAF a refusé de faire droit à notre demande. La Commission d’accès aux documents administratifs (CADA) est saisie de l’affaire et nous espérons que son avis arrivera très prochainement. jQuery('#footnote_plugin_tooltip_27220_2_5').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_5', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });.Cette étude que ne veut pas publier la CNAF traduit en creux l’absence de remise en question de sa propre politique de contrôle. En 2023, interrogée par Le Monde et Lighthouse Reports, la CNAF déclarait qu’elle n’avait jamais fait de travail d’analyse des personnes principalement concernées par son algorithme6Ce qui, en réalité, est faux puisqu’elle le savait dès 2016, grâce au travail des chercheur·euses Vincent Dubois, Morgane Paris et Pierre-Edouard Weill dans leur étude « Politique de contrôle et lutte contre la fraude dans la branche Famille ». En analysant les données de la CNAF, ils et elles ont démontré que l’introduction de cet algorithme en 2010 a eu pour conséquence de réorienter les contrôles vers les personnes précaires. Ce travail universitaire de 2016, pendant longtemps publié sur le site internet de la CNAF, a été discrètement retiré en 2024 (mais vous pouvez toujours en consulter une copie). jQuery('#footnote_plugin_tooltip_27220_2_6').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_6', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Avec cette étude de la DSER, la CNAF ne peut désormais plus nier savoir que son algorithme cible de façon discriminatoire les personnes les plus précaires. Et ce, d’autant plus que les associations tirent également la sonnette d’alarme sur les pratiques de la CNAF. En juin 2025, la question du ciblage des familles monoparentales a par exemple été abordée au sein du comité d’éthique, en s’appuyant notamment sur des témoignages.Cela n’empêche pas la CNAF de tordre la réalité pour continuer de nier la violence de ses pratiques de contrôle. Ainsi, en février 2025, pour se défendre devant le Conseil d’État, elle écrivait que son algorithme n’avait pas d’« effet significatif sur l’allocataire » parce que « l’ouverture du contrôle expose[rait] simplement à la nécessité de répondre aux demandes qui peuvent être présentées par le contrôleur ». On sait pourtant combien ces contrôles peuvent être intrusifs et engendrer un stress intense en raison des enjeux pour les personnes qui ont besoin de ce filet social de sécurité pour survivre. Celles et ceux ayant déjà subi un contrôle de la CNAF apprécieront l’euphémisme de l’administration…Une transparence forcéeDans un publireportage autour de ce nouvel algorithme, Nicolas Grivel, le directeur de la CNAF, affirme que l’administration aurait choisi « d’ouvrir le capot ». En somme, que cette transparence serait de son initiative et qu’il faudrait la féliciter pour cela. Ce qu’il omet pourtant de dire c’est qu’il n’avait plus vraiment le choix.Il existe en droit de la non-discrimination un principe fondamental : l’aménagement de la charge de la preuve. Parce qu’il est très souvent impossible d’apporter la preuve « parfaite » d’une discrimination, le droit exige plutôt de la part de la partie défenderesse (c’est-à-dire celle qui est attaquée) qu’elle démontre l’absence de discrimination. Nous demandions depuis le début de notre contentieux contre l’algorithme que ce principe soit appliqué : puisque la CNAF avait refusé de nous transmettre la version actuelle de son algorithme mais continuait d’affirmer que celui-ci ne serait pas discriminatoire, c’était à elle de démontrer l’absence de discrimination. Par exemple en transmettant au Conseil d’État et aux organisations requérantes une copie de son code source, ce qu’elle s’était, jusqu’en janvier dernier, refusé de faire.La Défenseure des droits est venue enfoncer le clou : en octobre 2025, elle s’est exprimée sur notre contentieux en considérant que la CNAF ne prouvait pas l’absence de discrimination indirecte7On distingue en droit deux types de discriminations. La discrimination directe est constituée lorsqu’une variable relative à un critère protégé par la loi est utilisée. La discrimination indirecte est constituée lorsqu’un algorithme a des effets négatifs sur des populations protégées. jQuery('#footnote_plugin_tooltip_27220_2_7').tooltip({ tip: '#footnote_plugin_tooltip_text_27220_2_7', tipClass: 'footnote_tooltip', effect: 'fade', predelay: 0, fadeInSpeed: 200, delay: 400, fadeOutSpeed: 200, position: 'top right', relative: true, offset: [10, 10], });. Autrement dit, comme la CNAF n’a jamais voulu communiquer son algorithme dans le cadre du contentieux, la Défenseure des droits lui a donné tort.La CNAF était donc coincée : pour se défendre, elle était en réalité dans l’obligation de publier son algorithme devant le Conseil d’État. Dès lors, le « choix » de le publier en ligne plutôt que de ne l’envoyer qu’au Conseil d’État et à nos organisations ressemble plus à une opération de communication qu’à une volonté de transparence. Notamment pour contrôler le narratif et répéter ad nauseam que ce nouvel algorithme serait réparé, et ainsi doubler nos organisations qui auraient voulu communiquer sur cette affaire d’abord. Surtout, le choix de ne pas publier l’étude de la DSER, puis de publier en catimini la version 2018 de son algorithme qui était encore plus discriminatoire que le nouvel algorithme de 2025, montre à quel point cet « effort » de transparence est loin d’être complet et désintéressé.De notre côté, nous continuons de nous battre pour exiger la fin de cet algorithme et la remise en cause drastique de la politique de contrôle discriminatoire de la CNAF. La coalition d’organisations que nous menons et qui se mobilise dans ce contentieux a d’ailleurs été rejointe par dix nouvelles structures. Tout le monde déteste cet algorithme. Alors pour nous aider à continuer la lutte, vous pouvez nous faire un don. References[+] References ↑1 D’autres critères discriminatoires qui étaient présents dans la version 2018 ont été supprimés comme le fait de vivre dans une résidence sociale, un foyer de jeunes travailleurs ou dans une chambre d’hôtel, ou encore de garder son logement étudiant pendant l’été. ↑2 Les foyers ayant entre 0,6 et 1,5 fois le SMIC auront un score plus élevé. La CNAF ne précise pas si le calcul se fait par personne ou pour l’ensemble du foyer. ↑3 Ce comité, dont l’objectif est d’aiguiller les choix de la CNAF sur l’usage de nouvelles technologies, notamment l’usage d’algorithmes, n’a qu’un pouvoir consultatif (il n’a pas le pouvoir d’empêcher la CNAF d’utiliser une technologie). Il est composé d’expert·es, de directeur·rices de la CNAF, des membres du conseil d’administration de la CNAF, et de représentant·es d’associations. La Quadrature ne fait pas partie de ce comité, mais d’autres associations parties au contentieux en cours le sont : notre coalition d’organisations a donc pu utiliser les résultats de cette étude dans le recours actuel contre l’algorithme (voir le mémoire en réplique de décembre 2025 qui revient sur la version 2018 de l’algorithme et le mémoire en observations de janvier 2026 qui revient sur le nouveau modèle 2025). ↑4 Au total, la DSER identifie que sont surreprésenté·es les bénéficiaires de la prime d’activité ; du RSA ; de l’aide au logement ; du complément familial ; de l’allocation de soutien familial ; de l’allocation de rentrée scolaire ; de l’allocation d’éducation de l’enfant handicapé. ↑5 Précisons, par souci de transparence, que La Quadrature du Net, qui ne fait pas partie du comité d’éthique de la CNAF et n’a donc pas eu accès à ce document, a fait une demande de communication de document administratif pour obtenir cette étude. La CNAF a refusé de faire droit à notre demande. La Commission d’accès aux documents administratifs (CADA) est saisie de l’affaire et nous espérons que son avis arrivera très prochainement. ↑6 Ce qui, en réalité, est faux puisqu’elle le savait dès 2016, grâce au travail des chercheur·euses Vincent Dubois, Morgane Paris et Pierre-Edouard Weill dans leur étude « Politique de contrôle et lutte contre la fraude dans la branche Famille ». En analysant les données de la CNAF, ils et elles ont démontré que l’introduction de cet algorithme en 2010 a eu pour conséquence de réorienter les contrôles vers les personnes précaires. Ce travail universitaire de 2016, pendant longtemps publié sur le site internet de la CNAF, a été discrètement retiré en 2024 (mais vous pouvez toujours en consulter une copie). ↑7 On distingue en droit deux types de discriminations. La discrimination directe est constituée lorsqu’une variable relative à un critère protégé par la loi est utilisée. La discrimination indirecte est constituée lorsqu’un algorithme a des effets négatifs sur des populations protégées. function footnote_expand_reference_container_27220_2() { jQuery('#footnote_references_container_27220_2').show(); jQuery('#footnote_reference_container_collapse_button_27220_2').text('−'); } function footnote_collapse_reference_container_27220_2() { jQuery('#footnote_references_container_27220_2').hide(); jQuery('#footnote_reference_container_collapse_button_27220_2').text('+'); } function footnote_expand_collapse_reference_container_27220_2() { if (jQuery('#footnote_references_container_27220_2').is(':hidden')) { footnote_expand_reference_container_27220_2(); } else { footnote_collapse_reference_container_27220_2(); } } function footnote_moveToReference_27220_2(p_str_TargetID) { footnote_expand_reference_container_27220_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } } function footnote_moveToAnchor_27220_2(p_str_TargetID) { footnote_expand_reference_container_27220_2(); var l_obj_Target = jQuery('#' + p_str_TargetID); if (l_obj_Target.length) { jQuery( 'html, body' ).delay( 0 ); jQuery('html, body').animate({ scrollTop: l_obj_Target.offset().top - window.innerHeight * 0.2 }, 380); } }