AGRH

View Original

Appel à articles Numéro thématique de la revue Socio-économie du travail oOo Des politiques de l’emploi mises au régime de l'expérimentation sociale : quel impact sur les démarches d’évaluation ?

Appel à articles

Numéro thématique de la revue Socio-économie du travail

oOo

Des politiques de l’emploi mises au régime de l'expérimentation sociale :

quel impact sur les démarches d’évaluation ?

Depuis son premier numéro en 2016, la revue Socio-économie du travail 1 documente la variété des

systèmes d’emploi et des formes de mobilisation du travail en croisant approches qualitatives

(monographie, enquête de terrain) et quantitatives (statistique ou économétrique). Dans une

perspective interdisciplinaire proche de la tradition anglo-saxonne des Industrial Relations, les articles

publiés décrivent et analysent cette variété en prêtant une attention particulière au rôle des institutions

dans l’économie et en développant une approche compréhensive de la réalité sociale.

Si Socio-économie du travail met fréquemment l’accent sur la dimension politique des dispositifs de

mobilisation du travail – voir, par exemple, le numéro 8 « Genre et politiques de l’emploi et du travail »

publié en 2002 –, la question de l’évaluation des politiques de l’emploi n’a pas encore été traitée

directement. L’affirmation depuis une vingtaine d’années de projets d’interventions publiques

« justifiées par la preuve » (evidence-based policy making) met pourtant au premier plan le rôle de

l’évaluation dans l’élaboration et la justification des politiques publiques. Ce rôle se manifeste

notamment par une banalisation du recours à l’expérimentation sociale dans une logique de

« démonstrateur », de preuve de concept (Proof Of Concept) ou de pilote. À part les thématiques

« Transport » ou « Santé », le domaine Travail/Emploi concentre aujourd’hui la plupart des

expérimentations en cours ou achevées, que ces dernières soient ou non menées sur le fondement de

l’article 37-1 de la Constitution. Avant tout essaimage ou généralisation, il s’agit notamment de pouvoir

attester de l’effet causal d’une intervention. S’inscrivant dans ce contexte, le présent appel à articles

propose de faire le point sur la réflexion et les résultats de l’approche socio-économique en matière

d’évaluation des mesures et dispositifs de la politique de l’emploi – entendue lato sensu (emploi, travail,

formation, insertion) –, spécialement lorsque l’évaluation en question est articulée à une

expérimentation sociale. Partant d’un état des lieux de l’évaluation des politiques de l’emploi

d’intention scientifique 2

en France, le présent appel souhaite ouvrir la revue aux travaux proposant une

approche pragmatique et pluraliste des processus d’évaluation. Les articles pourront concerner une

évaluation particulière de politique de l’emploi et/ou proposer une réflexion d’ordre plus

méthodologique sur les démarches d’évaluation elles-mêmes et leurs outils.

 Transmission des intentions d’article : 10 octobre 2022

 Notification de décision du comité de rédaction : 18 novembre 2022

 Transmission des articles complets pour évaluation par les pairs : 17 avril 2023

1. Site de la revue : https://classiques-garnier.com/socio-economie-du-travail.html │ En savoir plus sur la revue Socio-économie du

travail : http://socioecotravail.hypotheses.org/

2. C’est-à-dire s’écartant d’une démarche purement administrative du type « gestion axée sur les résultats » (GAR) ou Results based

monitoring and evaluation (RBME).

– 2 –

L’évaluation d’intention scientifique en France

Lorsqu’on considère, sur les deux dernières décennies, le paysage de l’évaluation d’intention

scientifique des politiques de l’emploi en France (Labrousse et Zamora, 2013 ; Simonnet, 2014), trois

aspects sautent aux yeux : la forte implication des économètres, la forte visibilité et circulation de leurs

résultats, la forte intégration de ces résultats à l’analyse positive. Ceux-ci occasionnent des publications

dans les revues les plus prestigieuses et les comportements qu’ils s’efforcent de quantifier irriguent

largement la recherche en économie. Ces aspects donnent le sentiment d’une communauté de

spécialistes de l’évaluation réduite aux statisticiens-économistes (Bono et al., 2021). La commande

publique nationale ou internationale (notamment européenne) mobilise pourtant une grande variété

de disciplines : sciences politiques, sociologie, ergonomie, santé publique, psychologie sociale... Le fait

est que cette communauté étendue, et les approches pluridisciplinaires qu’elle revendique, n’a pas

structuré ses pratiques autour d’une revue dédiée à l’évaluation en France. Nombre de travaux ne

dépassent pas la phase du rapport au commanditaire : leur diffusion fait rarement l’objet d’un examen

par les pairs ; malgré leur qualité, ils se trouvent soustraits à la discussion scientifique (au risque parfois

d’alimenter un biais de publication). Cela contraste avec ce qui prévaut ailleurs où des revues

spécialisées ont émergé – Canadian Journal of Program evaluation, American Journal of Evaluation,

Evaluation Review, New directions for evaluation, Evaluation and program Planning et Evaluation… S’y

croisent des travaux d’évaluation relevant des principales disciplines des SHS, des approches

quantitative et qualitative de l’évaluation, mais aussi de vigoureuses discussions sur les méthodes mises

en œuvre, leur portée, leur articulation, leurs limites.

En France, cet espace éditorial de structuration pluridisciplinaire et pragmatique de l’évaluation

d’intention scientifique n’existe pas en tant que tel. Le présent appel entend pallier ponctuellement

cette absence pour ce qui concerne les politiques de l’emploi. Il s’agit en particulier de mettre en

discussion le développement constaté ces quinze dernières années, de nouvelles exigences

méthodologiques du côté des évaluations qualitatives (Revillard, 2018 ; Delahais et al., 2021) et d’une

application plus courante des méthodes mixtes à l’évaluation de politiques publiques (Duran et al.,

2018).

L’évaluation mixte

Les contributions pourront concerner l’évaluation de dispositifs précis, une réflexion sur la portée et les

limites des méthodes mises en œuvre ou l’articulation de la démarche d’évaluation à la recherche sur

le travail et l’emploi. Le questionnement s’inscrira notamment dans le contexte d’une prééminence de

l’expérimentation sociale. Quelle place respective du quanti- et du qualitatif ? Quels enjeux

méthodologiques ? Quelles relations entre évaluation et recherche positive ? La complexité des

politiques soumises à évaluation semble propice au rapprochement des démarches quanti- et

qualitative, à leur dialogue voire à leur hybridation (Harding et Seefeldt, 2013). Où en sont les approches

mixtes à cet égard ? Que nous ont appris les multiples travaux réalisés ces dernières années ? Quelles

innovations méthodologiques ont-ils portées ? Pour quels résultats ? Quelles contributions à

l’évaluation des politiques de l’emploi ?

Les politiques complexes

L’opportunité de ces questions tient notamment au développement de politiques publiques pouvant

être qualifiées de complexes (Stern et al., 2012, p. 50) : diversité des formes d’intervention (dispositions

– 3 –

réglementaires, incitations monétaires, mesures de contrôle, conseil et information,

accompagnement…), de leur durée (ponctuelle ou prolongée), des acteurs impliqués et des objectifs

poursuivis. Ces éléments de complexité sont omniprésents dans les politiques de l’emploi et de lutte

contre le chômage et vont probablement croissants. Quelques exemples récents de politiques

complexes comportant un volet emploi-travail : la Garantie Jeune (Erhel et Gautié, 2018),

l’expérimentation « Territoires zéro chômeur de longue durée » (Verkindt, 2019), le Crédit d’impôt pour

la compétitivité et l’emploi (Naboulet et al., 2021), les Ordonnances travail (Prouet et al., 2021), la loi

Pacte (Baïz, 2021), le Plan d’investissement dans les compétences (Bucher et al., 2021), la Stratégie

nationale de prévention et de lutte contre la pauvreté (France Stratégie, 2021), la loi de 2018 pour « la

liberté de choisir son avenir professionnel » (comprenant pas moins de 13 dispositions prises « à titre

expérimental »). Dans chacun de ces cas, l’intervention publique articule des dispositions plurielles

déployées dans des contextes variés. Cette complexité contrarie souvent les exigences des méthodes

quantitatives d’évaluation d’impact, leur mise en œuvre rigoureuse supposant la maîtrise de protocoles

définis (expérimentation contrôlée) 3

et/ou une compréhension fine des processus sociaux associés à

l’intervention (expérience naturelle). Ces difficultés révèlent l’importance d’adapter les protocoles

d’évaluation et de multiplier les éclairages en mobilisant pleinement la variété des approches

disponibles.

L’inférence causale

Quelle que soit l’approche mise en œuvre, l’évaluation d’intention scientifique est étroitement liée à

l’inférence causale. L’enjeu est de tirer de l’observation, la démonstration de relations de cause à effet

entre une intervention et des résultats. L’approche quantitative doit une part de sa prééminence à

l’importance de son corpus méthodologique en la matière. Quoi qu’elle n’en fasse pas toujours un usage

aussi explicite qu’on pourrait l’espérer, l’approche qualitative dispose aussi de références

méthodologiques lui permettant « l’identification causale » (Beach et Pedersen, 2016). Dans le cadre

d’études de cas, l’exercice consiste par exemple à s’interroger sur le caractère nécessaire et/ou suffisant

d’une circonstance dans la réalisation d’un effet à travers notamment la mobilisation du critère

« Inus » 4

(Mackie, 1965). L’inférence causale consistant à montrer qu’une association statistique reflète

une relation de cause à effet mobilise quant à elle volontiers la logique contrefactuelle (Lewis, 1973).

Articuler différents régimes de causalité (causalité formelle-contrefactuelle ; causalité productive et/ou

générative, etc.) n’est certes pas simple (Mahoney, 2008) ; au regard de la persistance des débats (en

particulier parmi les quantitativistes ; Dawid, 2000), pas sûr qu’il soit d’ailleurs judicieux d’en rechercher

une conception unitaire.

Où en est la réflexion en la matière ? Comment faire dialoguer les enseignements d’approches

sollicitant des conceptions différentes de la causalité ? En quoi consisterait une démarche

pragmatique et pluraliste lorsqu’il s’agit d’établir la causalité ? Les propositions d’articles aborderont

utilement ces questions.

Une variété de protocoles et de méthodes 5

Au-delà du type de causalité que l’étude de cas et l’analyse statistique utilisent, les deux approches

apparaissent complémentaires par les questions qu’elles permettent de traiter. Stern et al. (2012)

3. Pour l’évaluation des projets menés dans le cadre des Pactes régionaux d’investissement dans les compétences, l’annexe méthodologique

stipulait que « les projets [devaient] être évalués au moyen d’un protocole d’assignation aléatoire ».

4. Insufficient but Non-redundant parts of a condition which is itself Unnecessary but Sufficient for the occurrence of the effect.

5. Pour une discussion de la distinction entre protocole et méthode d’évaluation, Stern et alii (2012, p. 13).

– 4 –

distinguent trois groupes de protocoles d’évaluation (designs) selon les contextes et questions posées ;

chaque protocole peut solliciter diverses méthodes 6

. Le premier correspond à l’application du concept

économétrique de causalité à l’évaluation d’impact : l’intervention a-t-elle un impact (identification) ?

quel est son ampleur (mesure) ? Selon la disponibilité et la structure des données, on pourra solliciter,

entre autres stratégies éprouvées, l’appariement sur score de propension, l’exploitation d’un cadre

quasi-expérimental ou l’expérimentation contrôlée. Dawid (2000, p. 412) ajoute à cet arsenal inscrit

dans la logique contrefactuelle, l’approche « décisionnelle-analytique ». Le deuxième groupe de

protocoles s’intéresse à la variabilité du résultat de l’intervention selon les conditions de sa mise en

œuvre. Les méthodes employées relèvent de l’analyse de configurations : analyse quali-quantitative

comparée – Ragin (1987), approche par cas-type (screening) et analyse de leur structure (scoping). Le

troisième groupe s’intéresse aux raisons du résultat et aux mécanismes par lesquels l’intervention le

détermine : pourquoi et comment l’intervention produit un résultat donné ? Les protocoles mis en

œuvre sollicitent une théorie du changement et pourront notamment tenir de l’analyse de contribution

(Mayne, 2012) ou de la reconstitution de processus – Process tracing (Collier, 2011). Toujours dans une

perspective d’évaluation basée sur la théorie – theory-based evaluation (Weiss, 1997), décrire l’action

d’une intervention pourra mobiliser une analyse de congruence (entre les diverses explications

possibles, laquelle est la plus « congruente » avec les indices rassemblés ?) et appeler une démarche

d’évaluation réaliste pour documenter le rôle des acteurs de l’intervention et la manière dont ils

s’approprient (ou non) les dispositifs. Enfin, dans une perspective méta-analytique, des méthodes

permettent la recension systématique d’indices probants concernant l’action d’un dispositif (Belaid et

Ridde, 2020).

En décrivant la variété des protocoles et méthodes d’évaluation d’impact, la liste précédente entend

montrer le potentiel d’une conception pragmatique de l’évaluation. La question est souvent moins celle

du partage des rôles entre quanti et quali que celle de l’adaptation des protocoles d’évaluation au

contexte et aux besoins. L’objectif de mesurer un impact causal peut justifier une expérimentation

contrôlée, le faire rigoureusement requiert « d’aller sur le terrain » (« quali dans le quanti ») ; l’étude

de cas peut permettre de comprendre un processus causal en sollicitant l’analyse statistique (« quanti

dans le quali »). Certains enjeux méthodologiques franchissent d’ailleurs la « barrière des espèces »

(quali/quanti) : c’est le cas du rôle et du statut de la « théorie » dans l’évaluation d’impact (Delahais et

al., 2021). Le besoin et le contexte mériteraient d’être juge de paix.

Les articles rassemblés contribueront à la définition d’un bon usage du pluralisme méthodologique,

notamment à l’intention des commanditaires d’évaluation. Le présent appel s’adresse ainsi tout

particulièrement à des travaux mettant concrètement en œuvre une intention d’articulation des

méthodes dans l’exercice d’évaluation de politiques de l’emploi.

L’expérimentation au-delà de la fonction de démonstration

Un changement lié au contexte 7

et tenant à la place prise par l’expérimentation dans la conception

même des politiques publiques, confère à ces questionnements un sens nouveau. L’expérimentation

fait en effet aujourd’hui figure de bonne pratique, à condition qu’elle suive une « méthode rigoureuse »

(Conseil d'État, 2019, p. 13). Mais quel contour donner à l’expérimentation « rigoureuse » ?

6. Le cabinet Quadrant met à disposition une intéressante synthèse visuelle de cette classification sous la forme d’une arborescence

(https://www.quadrant-conseil.fr/ressources/ArbreImpact.html, Quadrant Conseil, 2017 – www.quadrant.coop).

7. Depuis notamment les débats relatifs à la loi constitutionnelle n° 2003-276 du 28 mars 2003.

– 5 –

A cet égard, les controverses d’ordre méthodologique – centrées sur la mesure des effets d’une

intervention –, devraient s’étendre à une clarification du statut de l’expérimentation au sein des

différents protocoles d’évaluation (cf. supra). Ce statut diffère en effet sensiblement suivant que

l’expérimentation est cadrée pour les besoins d’une évaluation (un peu comme dans la pratique du

laboratoire) ou qu’à l’inverse, l’évaluation – le plus souvent in itinere ou « embarquée » – se fait par ou

à travers un processus expérimental. Dans le second cas, l’évaluation doit « négocier » continûment son

existence avec des données de contexte, source de perturbations continuelles dans le déroulé d’un

programme d’intervention. Dans un cas donc – expérimentation pour l’évaluation – le cadre

expérimental est pensé et construit pour les besoins de la mesure d’impact dont il permet d’assurer la

qualité et le contrôle ; dans l’autre – évaluation par l’expérimentation – la situation d’évaluation est

créée pour les besoins d’une expérimentation nécessairement collective dont elle permet d’assurer la

qualité et le contrôle.

Le présent AAC souhaite, à travers cette distinction entre expérimentation « contrôlée » versus

évaluation « expérimentale », élargir ce que l’on peut admettre dans une démarche d’évaluation

d’intention scientifique. Quelle pratique « rigoureuse » de l’expérimentation sociale au-delà d’une

démarche consistant, pourrait-on dire, à « transformer le monde en laboratoire » ? Quels apports et

quelles limites par exemple des démarches d’évaluation participatives ? Et d’ailleurs, quel sens donner

à cette participation ? S’agit-il d’associer à l’évaluation – et de quelle manière – ceux qui constituent

les « ressortissants » d’une politique publique (Revillard, 2018) ; ceux qui la mettent en œuvre dans

une perspective Practice-Based Evidence (PBE) ? S’agit-il, plus simplement, d’actualiser le référent

« pluraliste » qui caractérisait naguère l’approche française en matière d’évaluation et la pratique de

l’expertise concertée entre représentants de la société civile organisée dont se réclamait l’ancien

Commissariat au Plan ?

L’appel à contributions se veut pluridisciplinaire, ouvert à toute proposition d’article original dans le

champ de l’économie et de la sociologie mais aussi d’autres disciplines (science politique par exemple).

Les propositions pourront concerner l’évaluation d’une mesure ou d’un dispositif particulier de la

politique de l’emploi, en restituer notamment la trajectoire et les résultats. Il s’agirait alors de lier la

discussion à un cas et d’éclairer les conditions de mise en œuvre concrètes d’une stratégie d’évaluation

donnée. Pour autant l’appel n’exclut pas les contributions privilégiant d’emblée une entrée

méthodologique dès lors qu’elles concernent l’articulation des démarches d’évaluation à des

expérimentations et puissent trouver des illustrations dans le domaine de l’emploi.

Calendrier des soumissions

Les intentions d’article (1000 à 1500 mots, bibliographie non incluse), en français ou en anglais, devront

être adressées au secrétariat de rédaction (set@classiques-garnier.com), ainsi qu’aux deux

coordinateurs (olivier.baguelin@univ-evry.fr, laurent.duclos@emploi.gouv.fr) avant le 10 octobre 2022.

Elles feront l’objet d’un examen par le comité de rédaction. La notification d’acceptation sera rendue

au plus tard le 18 novembre 2022.

Les auteurs et autrices dont la proposition aura été retenue devront soumettre leur texte au plus tard

le 17 avril 2023 sur la plateforme de la revue https://classiques-garnier.com/ojs/index.php/set/index.

Les articles ne devront pas dépasser 70 000 signes, bibliographie, notes et espaces compris. Ils seront

accompagnés d’un titre et d’un résumé en français et en anglais suivant les consignes développées ici.

– 6 –

Références

Baïz, A. (2021). Comité de suivi de la loi Pacte - Deuxième rapport. France Stratégie.

Belaid, L., & Ridde, V. (2020). Une cartographie de quelques méthodes de revues systématiques.

Ceped working paper n°44.

Bono, P.-H., Desplatz, R., Debu, S., & Lacouette-Fougère, C. (2021). Le lent développement des

évaluations d'impact en France : une approche par les acteurs. Revue française

d'administration publique n°177, pp. 17-28.

Brousselle, A., Buregeya, J. M. (2018). Theory-based evaluations: Framing the existence of a new

theory in evaluation and the rise of the 5th generation. Evaluation, 24(2), pp. 153-168.

Bucher, A., Fretel, A., Givord, P., Lima, L., & Morel, M. (2021). Second rapport du comité scientifique de

l'évaluation du Plan d'investissement dans les compétences. Dares.

Collier, D. (2011, October). Understanding Process Tracing. Political Science and Politics Vol. 44, N°4,

pp. 823-830.

Conseil d'État. (2019). Les expérimentations : comment innover dans la conduite des politiques

publiques ? Les études du Conseil d'État, La documentation française.

Dawid. (2000, June). Causal Inference without Counterfactual. Journal of the Amecian Statistical

Association vol. 95 n°450, pp. 407-424.

Delahais, T., Devaux-Spatarakis, A., Revillard, A., & Riddel, V. (2021). Evaluation : Fondements,

controverses, perspectives. Québec: Editions science et bien commun - ESBC.

Duran, P., Erhel, C., & Gautié, J. (2018). L'évaluation des politiques publiques : les sciences sociales à

l'épreuve. Idées économiques et sociales n°193. Réseau Canopé.

Erhel, C., & Gautié, J. (2018). La Garantie Jeunes : éléments d'évaluation et de comparaison

internationale. Travail et emploi n°153, pp. 5-14.

Harding, D. J., & Seefeldt, K. S. (2013). Mixed Methods and Causality Analysis. Handbooks of Sociology

and Social Research (S. L. Morgan, ed.). Springer Science + Business Media Dordrecht.

Labrousse, A., & Zamora, P. (2013). Expérimentations de terrain et politiques publiques du travail et

de l'emploi - Apports récents et mise en perspective. Travail et emploi n°135, pp. 5-13.

Mayne, J. (2012). Contribution analysis: Coming of age? Evaluation, pp. 270-280.

Naboulet, A., Baïz, A., & Tabarly, G. (2021). Evaluation du Crédit d'impôt pour la compétitivité et

l'emploi - Synthèse des travaux et approfondissements. France Stratégie.

Pin, C., & Barone, C. (2021). L'apport des méthodes mixtes à l'évaluation - Une expérimentation

randomisée dans le champ des politiques éducatives. Revue française de sciences politiques

vol. 71 n°3, pp. 391-412.

Prouet, E., & Naboulet, A. (2021). Evaluation des ordonnances travail du 22 septembre 2017 relatives

au dialogue social et aux relations de travail. France Stratégie.

Ragin, C. (1987). The Comparative Method. Moving beyond Qualitative and Quantitative Strategies.

Berkeley: University of California Press.

Revillard, A. (2018, Novembre). Quelle place pour les méthodes qualitatives dans l'évaluation des

politiques publiques ? Liepp Working paper n°81.

Simonnet, V. (2014). Evaluation des politiques actives du marché du travail. Travail et emploi n°139,

pp. 5-14.

Stern, E., Stame, N., Mayne, J., Forss, K., Davies, R., & Befani, B. (2012). Broadening the range of

designs and methods for impact evaluations. Report of a study commissioned by the

Department for International Development.

Verkindt, P.-Y. (2019). L'expérimentation "Territoires zéro chômeurs de longue durée". Regards n°56,

pp. 41-49.

Weiss, C. H. (1997). Theory-based impact evaluation: past, present, and future. New Directions for

Evaluation 76.