• Post category:Asso 2024
  • Temps de lecture :9 min de lecture

Quinze associations attaquent en justice l’algorithme de la CAF

En cette veille de la Journée mondiale du refus de la misère, quinze organisations de la société civile, parmi lesquelles La Quadrature du Net et Amnesty International, ont déposé un recours devant le Conseil d’État contre l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF). Cet algorithme est accusé de discriminer les plus précaires. Cette action en justice, qui repose sur le droit à la protection des données personnelles et sur le principe de non-discrimination, constitue une première en France contre un algorithme utilisé par un organisme public.

Mais comment la CAF choisit-elle de contrôler un allocataire plutôt qu’un autre ? Depuis 2010, la CAF a recours à un algorithme de notation attribuant un score de suspicion à chaque allocataire, sur la base des données personnelles collectées. Plus le score est élevé, plus la probabilité d’être contrôlé·e est grande. Chaque mois, ce système analyse les données de plus de 32 millions de personnes vivant dans un foyer recevant des prestations CAF, calculant ainsi plus de 13 millions de scores. Les facteurs augmentant le score de suspicion incluent des éléments tels que de faibles revenus, le chômage, le bénéfice du RSA ou de l’Allocation Adulte Handicapé (AAH). En conséquence, ce sont souvent les plus fragiles qui sont les plus ciblés.

L’algorithme a été critiqué par de nombreuses associations et dans les médias. Le journal Le Monde a rapporté le témoignage de nombreux allocataires se plaignant du manque de transparence de la CAF, qui ne détaille que rarement les raisons de ces contrôles et de la fixation de trop-perçus. L’algorithme attribue un score de risque à un ménage, s’appuyant sur des critères jugés arbitraires : avoir des revenus sous un certain seuil, avoir un enfant de plus de 12 ans ou être récemment veuf ou divorcé font partie des critères qui augmentent la probabilité d’être contrôlé·e.

Le recours des associations devant le Conseil d’État porte tant sur l’étendue de la surveillance exercée que sur la discrimination dont souffrent les allocataires déjà en situation de précarité. En assimilant précarité et suspicion de fraude, l’algorithme contribue à une politique de stigmatisation et de maltraitance institutionnelle des plus défavorisés. Les contrôles sont souvent des épreuves difficiles à vivre, générant une lourde charge administrative et une anxiété importante. Ils s’accompagnent souvent de suspensions de prestations, précédées de demandes de remboursements injustifiés. Dans les situations les plus graves, des allocataires se retrouvent entièrement privés de ressources, dans l’illégalité la plus totale. Les voies de recours, quant à elles, sont souvent complexes et peu accessibles.

Outre les questions de discrimination, les associations dénoncent également la non-conformité de cet outil au RGPD. Elles estiment que le volume de données traitées est disproportionné par rapport à l’objectif visé, et que l’utilisation de cet algorithme pourrait contrevenir à l’article 22 du règlement européen, qui interdit la prise de décision automatisée sans intervention humaine. La CAF s’est défendue, affirmant que l’algorithme n’était utilisé que pour identifier des profils susceptibles de faire des erreurs, et que la décision finale était toujours prise par un contrôleur qui examine manuellement chaque dossier.

Face à la généralisation de tels algorithmes de notation au sein des organismes sociaux, la coalition regroupant des organisations diverses appelle à l’interdiction de ces pratiques et dénonce la violence des politiques dites de “lutte contre la fraude sociale”. “Cet algorithme est la traduction d’une politique d’acharnement contre les plus pauvres. Parce que vous êtes précaire, vous serez suspect·e aux yeux de l’algorithme, et donc contrôlé·e. C’est une double peine”, déclare Bastien Le Querrec, juriste à La Quadrature du Net.

Associations requérantes:

PDF: Recours contre l’usage d’un algorithme de scoring par la CNAF : Atteinte à la vie privée et risques de discrimination

Le document est une requête introductive d’instance déposée devant le Conseil d’État par plusieurs associations et syndicats, notamment La Quadrature du NetAmnesty International France, et La Ligue des droits de l’Homme. Ces organisations contestent l’utilisation par la Caisse nationale des allocations familiales (CNAF) d’un système algorithmique visant à attribuer un score de risque à chaque allocataire pour cibler les contrôles des Caisses d’allocations familiales (CAF).

La requête souligne que ce traitement algorithmique utilise les données personnelles de millions de personnes, y compris celles des proches des allocataires, pour calculer un score de probabilité indiquant si un allocataire est susceptible de percevoir un indu (trop-perçu). Ce système est critiqué pour son manque de transparence et ses effets potentiellement discriminatoires envers certaines catégories de la population, notamment les personnes en situation de précarité, les bénéficiaires de minima sociaux, les familles monoparentales, et les personnes handicapées.

Les exposants demandent l’annulation de la décision implicite de rejet par la CNAF de leur demande d’abrogation de ce système, arguant que le traitement de données personnelles est disproportionné, non nécessaire, et contraire à la réglementation sur la protection des données (RGPD) ainsi qu’à divers principes de non-discrimination. Ils allèguent également que le dispositif algorithmique constitue une surveillance massive et une atteinte au droit à la vie privée.

La requête développe des arguments concernant la qualification juridique du traitement en question, sa disproportionnalité, la discrimination indirecte qu’il entraîne, et son manque de base légale.

En résumé, cette requête cherche à obtenir l’annulation de la mise en œuvre de ce traitement algorithmique au motif qu’il viole les droits fondamentaux des allocataires, notamment en matière de protection des données personnelles et de non-discrimination.