ANNEXE
N° 4
QUELQUES DONNÉES SUR
L'ÉVALUATION DES
CONTRATS DE PLAN ETAT-RÉGIONS
L'évaluation est formellement intégrée à la procédure des contrats de plan Etat-Régions (CPER). Votre délégation avait examiné avec attention le dispositif d'évaluation de la précédente génération de contrats de plan 61 ( * ) , ses lacunes et ses apports.
Ses conclusions méritent d'être citées, malgré les modifications apportées depuis au système par la circulaire du 25 août 2000 sur l'évaluation des procédures contractualisées sur la période 2000-2006.
Elles traitent d'éléments majeurs pour l'évaluation et permettent d'appréhender concrètement les conditions qui la favorisent, mais aussi les pièges, qu'elle doit éviter.
1. Les formes d'institutionnalisation de l'évaluation apparemment satisfaisantes
Le dispositif d'évaluation comptait d'abord un échelon national mis en place par la circulaire du Premier ministre du 31 mars 1992 et la circulaire interministérielle (Commissariat général du Plan, DATAR, Délégation interministérielle à la Ville) du 9 décembre 1993 qui avaient prévu, puis rendu obligatoire , l'inscription dans les contrats de plan Etat-Régions d'un dispositif d'évaluation des politiques contractualisées .
Il s'agissait là d'une innovation , puisqu'avant cette date, seuls des bilans de suivi financier étaient réalisés.
Pour cela, la circulaire du 9 décembre 1993 prévoyait que l'Etat affecterait à l'évaluation les 6/10 000èmes de sa participation financière à chaque contrat de plan, soit au total 47 millions de francs , inscrits sur le budget du Commissariat général du Plan, chargé de l'évaluation des contrats de plan Etat-Régions. Cela représentait en moyenne 2,1 millions de francs pour chaque région métropolitaine, les Régions étant par ailleurs appelées à cofinancer ces travaux d'évaluation à parité avec l'Etat.
L'instance nationale d'évaluation, animée par les services du Commissariat général du Plan, et composée de représentants des administrations centrales, devait donner un avis technique sur les projets d'évaluation proposés par les instances régionales d'évaluation.
En cas d'avis favorable, le Commissariat général du Plan devait déléguer aux préfets les crédits afférents, accompagnés, le cas échéant, de recommandations de méthode. Les évaluations réalisées en région devaient ensuite faire l'objet de bilans sous l'égide du Commissariat général du Plan.
S'agissant des dispositifs régionaux d'évaluation , la circulaire du 9 décembre 1993 avait posé quelques principes fondateurs. Les instances régionales d'évaluation devaient fonctionner sur le mode d'un partenariat entre l'Etat et la Région sur la base d'une définition des projets d'évaluation retenant des objectifs limités dans le cadre d'un dispositif d'évaluation régional associant des experts indépendants .
Ces principes ont été déclinés dans les contras de plan selon des modalités différenciées.
De manière générale, les dispositifs régionaux d'évaluation ont été articulés autour d'une instance décisionnelle, le Comité régional d'évaluation , et d'un comité scientifique ou de comités de suivi pluridisciplinaires, composés d'une dizaine d'experts désignés d'un commun accord par le Préfet de Région et le Président du Conseil régional, et le plus souvent bénévoles, ayant pour missions de préparer les évaluations (études de faisabilité, rédaction des cahiers des charges et des appels d'offres), de les piloter d'un point de vue méthodologique, puis de les apprécier d'un point de vue scientifique. La réalisation concrète des évaluations était ensuite le plus souvent confiée à des organismes extérieurs (instituts de recherche parapublics, laboratoires universitaires, consultants privés, etc.)
En somme, l'institutionnalisation de l'évaluation des contrats de plan s'est faite en conformité avec les préconisations qui constituent le socle déontologique de l'évaluation.
2. En outre, dès l'origine, quelques considérations pratiques ont été prises en compte, si bien que, mais de façon inégale, une forme d'évaluation participative s'est instaurée.
Le Président du Conseil économique et social régional était souvent, mais pas toujours, membre du Comité régional d'évaluation. De même, le Président de la Chambre régionale des Comptes, le Trésorier-payeur général de la région, le Directeur régional de la Banque de France et le Directeur régional de l'INSEE étaient souvent associés aux travaux du Comité régional d'évaluation, avec une voix délibérative ou consultative selon les régions.
Cette large association des acteurs régionaux n'a toutefois eu que peu de prolongements au niveau local . Les autres collectivités locales ont été dans l'ensemble peu associées aux dispositifs régionaux d'évaluation des contrats de plan. Certes, elles avaient la faculté de solliciter l'évaluation des actions qu'elles cofinançaient ou qu'elles mettaient en oeuvre. Néanmoins, à l'exception notable des départements alsaciens, les départements et les villes étaient rarement représentés avec voix délibérative dans les instances régionales d'évaluation.
En revanche, un certain effort s'est manifesté pour intégrer l'évaluation des programmes européens à celle des contrats de plan. Les comités régionaux d'évaluation étaient en principe informés des évaluations des politiques publiques conduites hors contrat de plan, en particulier des évaluations concernant les programmes européens . Certains contrats de plan, comme celui pour la Lorraine, prévoyaient même que, « dans la mesure du possible, les programmes prévus au présent contrat qui seront cofinancés par les fonds structurels européens feront l'objet du même dispositif d'évaluation ».
3. Par ailleurs, il est intéressant d'observer que plusieurs contrats de plan avaient entendu organiser la complémentarité entre l'évaluation des politiques publiques et l'information économique et sociale, qui lui est nécessaire .
Par exemple, l'évaluation des politiques publiques et le financement du Réseau d'information économique et sociale étaient symboliquement inscrits dans le même article du contrat de plan en Bourgogne.
Plus précisément, le contrat de plan pour le Languedoc-Roussillon prévoyait, d'une part que « l'instance régionale d'évaluation des politiques publiques sera associée au dispositif de mesure et de contrôle de l'exécution du contrat » ; d'autre part, que « les bénéficiaires des aides devront communiquer à l'Etat et à la Région les informations, notamment d'ordre physique et financier, que ces derniers jugeront utiles, afin de justifier de l'emploi des fonds publics alloués pour l'exécution des actions du contrat », ce qui est évidemment de nature à faciliter l'évaluation.
4. Le bilan de l'évaluation s'est révélé très mitigé
Les points de vue des acteurs sont assez diversifiés. Pour le Commissariat général du Plan et pour certaines régions, le dispositif a permis de diffuser une « culture de l'évaluation » sans toutefois produire tous les effets attendus. Pour d'autres acteurs, le dispositif des CPER n'a rien apporté en soi. Pour votre délégation, le bilan était apparu devoir être sérieusement nuancé.
a) Le point de vue des acteurs
Selon le Commissariat général du Plan, trois périodes semblent s'être dessinées pour l'évaluation des troisièmes contrats de plan Etat-Région.
- « la première période correspond au démarrage des opérations . Elle n'est donc pas propice au lancement de projets d'évaluation. Ainsi, en 1999, aucun projet n'a pu être présenté à l'instance nationale d'évaluation des contrats de plan Etat-Région, et quelques projets seulement l'ont été en 1995 ;
- la deuxième période enregistre la forte montée ne puissance de la réalisation des opérations contractualisées . Elle entraîne donc le dépôt d'un grand nombre de projets d'évaluation et, par conséquent, une très forte demande de crédits d'évaluation quelquefois satisfaite avec retard, par manque de crédits disponibles ;
- la troisième période correspond non seulement à l'achèvement progressif de cette génération encours de réalisation, mais surtout à l'élaboration et à la négociation de la nouvelle génération des contrats de plan Etat-Région, ainsi que celles des programmes communautaires . Ce texte justifie une diminution du nombre de dossiers d'évaluation présentés en 1998 et 1999, dont une bonne partie concerne l'achèvement d'opérations déjà engagées ».
Au total, l'instance nationale d'évaluation a eu à examiner plus d'une centaine de dossiers, la plupart concernant la politique de la ville, les aides au développement économique et à l'agriculture, enfin les procédures d'appui à la recherche et aux transferts de technologie, ce qui témoigne d'une montée en charge convenable du dispositif d'évaluation des CPER.
L'apport du dispositif organisé par la circulaire du 9 décembre 1993 est moins évident aux yeux d'autres acteurs.
Certaines Régions, en réponse au questionnaire de la Délégation, ont pu souligner que l'évaluation des politiques publiques en région, et même l'évaluation des politiques contractualisées, ne s'est pas limitée au cadre institutionnel établi par la circulaire du 9 décembre 1993 et que le développement de l'évaluation a été bien antérieur aux troisièmes contrats de plan.
En outre, certains ministères ont mis en oeuvre leurs propres évaluations de leurs politiques contractualisées, indépendamment des Régions et sans référence au dispositif national établi par le Commissariat général du Plan.
Ainsi, selon le secrétariat d'Etat à l'Industrie, « la procédure des contrats de plan Etat-Région n'a rien changé aux procédures d'évaluation de la politique en faveur des petites et moyennes industries... ».
En toute hypothèse, notre délégation avait conclu de son examen à un bilan mitigé du processus.
b) Le point de vue de votre délégation
Elle avait jugé ses résultats parfois décevants, se fondant sur plusieurs observations :
Celle d'abord d'une mobilisation inégale dont pouvaient témoigner la faible consommation des crédits réservés à l'évaluation et le faible degré d'association de certains partenaires « naturels » de l'évaluation au processus.
Ainsi, certaines Régions ne se sont pas engagées à financer ces actions d'évaluation à parité avec l'Etat, comme les y invitait la circulaire du 9 décembre 1993.
De plus, les instances régionales d'évaluation furent souvent mises en place avec retard, et le rythme de consommation des crédits d'évaluation fut relativement lent : selon une note du Commissariat général du Plan transmise à votre rapporteur, le taux de consommation des crédits s'étageait dans les régions métropolitaines, à la fin de 1998, soit un an avant l'échéance des contrats de plan, entre 10 % et 108 %, avec une moyenne nationale de 42 % , sept régions se situant en deçà de 30 %.
Enfin, l'association des Conseils économiques et sociaux régionaux et des autres collectivités locales à ces travaux d'évaluation fut, dans l'ensemble, relativement réduite 62 ( * ) .
En outre, les services des autres collectivités locales n'ont pas toujours été consultés par les chargés d'évaluation, alors même que ces services concouraient à la mise en oeuvre des politiques évaluées.
Celle, par ailleurs, de la portée souvent limitée des évaluations du fait, d'abord de cahiers des charges inégalement pertinents, mais aussi de la qualité variable des travaux réalisés .
Sur le premier point, plusieurs lacunes avaient été mises en évidence par notre délégation en ces termes :
« - l'impact socio-économique des actions étudiées a été rarement abordé de front. Les évaluations entreprises ne se sont parfois guère préoccupées de la pertinence économique des programmes contractualisés, mais seulement des améliorations qui pourraient leur être apportées;
- en particulier, ces évaluations n'ont guère étudié les conséquences des actions contractualisées sur l'aménagement du territoire , qui constituait pourtant l'un des grands objectifs assignés aux contrats de plan, tant au niveau national que dans la plupart des régions ;
- de même, les évaluations effectuées dans le cadre des contrats de plan Etat-Région n'ont pas toujours pris en compte l'impact des dispositifs étudiés sur les autres collectivités locales ou la cohérence de ces dispositifs avec les interventions des autres collectivités ;
- par ailleurs, ces évaluations ont rarement porté sur l'adéquation des ressources humaines affectées à la mise en oeuvre de certaines politiques. En outre, ces évaluations ont souvent omis le coût de ces ressources humaines, par exemple le coût d'instruction administrative d'un dossier d'aide. De la sorte, l'évaluation des troisièmes contrats de plan Etat-Région n'a guère pu constituer un instrument de modernisation des pratiques administratives ou de redéploiement de certains services publics ;
- ces évaluations n'ont guère cherché à comparer l'efficacité des actions contractualisées avec l'efficacité potentielle de mesures alternatives, notamment des mesures mises en oeuvre dans d'autres régions ;
- plus généralement, il y eut fort peu d'évaluations plurirégionales, alors même que la procédure de contrat de plan invite utilement à se demander si des politiques différant d'une région à l'autre y ont entraîné des effets différents . »
Sur le second point, différents éléments, que ce soit les témoignages des Régions ou les appréciations du Commissariat général du Plan, suggèrent que la qualité et la pertinence scientifiques des évaluations ont été très inégales.
L'absence d'apport évaluatif des études entreprises a été fréquemment mentionnée.
Ainsi, selon une Région, « certains travaux se contentent souvent de procéder à un simple bilan statistique ».
De même, nombre d'évaluations de dispositifs d'intervention économique se sont surtout interrogées, par voie de sondage, sur la perception des aides par les bénéficiaires, plutôt que sur leur efficacité réelle.
Certaines Régions soulignent aussi les confusions existant entes les études, les évaluations, les propositions, la prospective, le contrôle et le contrôle de gestion.
Plus précisément, une étude 63 ( * ) réalisée sous l'égide du service de l'évaluation et de la modernisation de l'Etat du Commissariat général du Plan, à partir d'un échantillon de 25 évaluations conduites dans le cadre des troisièmes contrats de plan Etat-Région, suggère que de nombreuses évaluations ont connu des biais ou des lacunes méthodologiques :
- en confondant l'effectivité des mesures (leur mise en oeuvre) leur efficacité (le fait d'atteindre les objectifs assignés) et leur efficience (le fait d'atteindre ces objectifs au moindre coût) ;
- en distinguant mal les impacts déclarés par les bénéficiaires de certains dispositifs, d'une part, les effets réels de ces dispositifs, d'autre part ;
- en n'explicitant pas assez les méthodes d'échantillonnage ;
- en ne combinant pas assez des techniques quantitatives et des appréciations qualitatives ;
- en omettant d'interroger sur leurs attentes les publics visés par certaines mesures ;
- en omettant d'interroger les non-bénéficiaires des dispositifs étudiés, par exemple les entreprises qui n'avaient pas pu, pas su ou pas souhaité s'inscrire dans un dispositif d'intervention économique ;
- en n'associant pas assez, voire en n'interrogeant pas les services de l'Etat et des collectivités locales chargés de la mise en oeuvre des programmes évalués.
- Enfin l'observation d'un manque d'utilité des travaux d'évaluation avait pu être faite par votre délégation.
De fait, les évaluations conduites dans le cadre des troisièmes contrats de plan Etat-Région, ont été relativement peu diffusées et peu utilisées.
Notre Délégation reconnaissait pourtant que le Commissariat général du Plan s'était efficacement employé à promouvoir la culture de l'évaluation chez les décideurs publics, ainsi qu'à diffuser des éléments méthodologiques auprès de l'ensemble des SGAR et des Régions.
Il avait ainsi organisé les journées d'INFOPLN, qui réunissaient en moyenne huit fois par an des représentants des préfectures et des Régions pour des échanges expériences sur la mise en oeuvre des politiques publiques et mis en place en province trois séminaires de formation destinés aux responsables de l'évaluation des services de l'Etat ou des collectivités locales.
Néanmoins, les moyens humains du Commissariat général du Plan pour suivre le dispositif d'évaluation des contrats de plan Etat-Région lui étaient apparus extrêmement limités, avec 1,5 emploi équivalent temps-plein.
La confrontation de ces moyens avec le nombre de dossiers d'évaluation examinés par l'instance nationale (une centaine) témoigne d'un sous-dimensionnement très inquiétant du dispositif d'évaluation des actions publiques menées dans le cadre des CPER.
En outre, les instances régionales n'ont parfois transmis leurs rapports d'évaluation au Commissariat général du Plan qu'avec retard. L'information générale du Commissariat général du Plan sur les évaluations conduites en région fut ainsi incomplète.
Plus généralement, la publicité des travaux d'évaluation et les confrontations d'expériences entre régions étaient limitées.
Au total, les méthodologies et les principaux enseignements des évaluations régionales étaient relativement peu diffusés d'une région à l'autre.
Quant au Parlement, l'on pouvait déplorer qu'il ne soit pas destinataire de bilans des évaluations, au moins pour les politiques publiques concernant les compétences de l'Etat.
Enfin, comme le reconnaissait le Commissariat général du Plan, « les conclusions de ces rapports d'évaluation ont été, pour l'instant, peu intégrées dans la préparation de la nouvelle génération des contrats Etat-Région ».
Il est vrai que les résultats des évaluations engagées n'étaient souvent pas connus au moment de la préparation des nouveaux contrats de plan (2000-2006).
En effet, la plupart des évaluations avaient été lancées à partir de 1997. Or, la durée de la procédure, a priori de l'ordre d'un an à un an et demi, a pu parfois atteindre deux ou trois ans.
Le défaut d'utilité des travaux d'évaluation pouvait être d'autant plus regretté que ces travaux sont coûteux, aussi bien en crédits budgétaires qu'en ressources humaines.
En effet, compte tenu du prix de journée d'un consultant, le coût des évaluations facturées par des cabinets extérieurs atteignait rapidement plusieurs centaines de milliers de francs, pour deux ou trois mois de travail effectif.
A ce coût apparent, il convient d'ajouter le coût « invisible » résultant du temps passé par les experts extérieurs mobilisés, ainsi que par les services de l'Etat, des Régions et des institutions associées, pour débattre des actions « évaluables », pour conduire les études de faisabilité, pour rédiger les cahiers des charges et les appels d'offre, puis pour piloter les travaux en cours. Rappelons à cet égard que le coût en personnel pour les pouvoirs publics de deux réunions de deux heures pour dix personnes est au minimum d'une dizaine de milliers de francs 64 ( * ) .
5. La réussite des évaluations s'est heurtée à de nombreux obstacles
Les insuffisances du processus d'évaluation des contrats de plan s'expliquaient largement, aux yeux de votre délégation, par le contexte difficile qui était le sien.
a) Ecueil traditionnel de l'évaluation, un défaut de précision des objectifs des CPER pouvait être relevé
Par ailleurs, l'évaluation des politiques publiques est un exercice particulièrement difficile, dont la réussite suppose une expérience et une expertise suffisantes.
Alors que l'évaluation des troisièmes contrats de plan Etat-Région constituait à bien des égards une première administrative, l'évaluation des politiques publiques contractualisées présente par surcroît des difficultés spécifiques, dès lors que la plupart des actions inscrites dans les contrats de plan avaient vocation à s'articuler les unes avec les autres et/ou, par ailleurs, à s'insérer dans des dispositifs nationaux, les englobant et qui, par définition, ne pouvaient être concernés par les travaux d'évaluation des CPER.
b) Les difficultés d'un calendrier très serré
Le calendrier des contrats de plan ne permettait pas toujours le recul nécessaire à l'évaluation, et ne favorisait guère la mise en oeuvre d'une démarche du type :
décision publique mise en oeuvre évaluation nouvelle décision.
En effet, pour que les résultats des évaluations soient pris en compte dans la préparation des nouveaux contrats de plan 2000-2006, il fallait que ces résultats soient disponibles au début de 1999, ce qui supposait que les évaluations aient été engagées en 1997 et mises en oeuvre en 1998.
Or, il était quasiment impossible d'évaluer en 1997 ou en 1998, à partir de données statistiques s'arrêtant souvent en 1996, l'impact socio-économique de programmes inscrits dans les contrats de plan signés en 1994, et mis en oeuvre à partir de 1995.
c) La complexité de la procédure d'évaluation est apparue excessive au regard de l'expertise disponible
La procédure préconisée par le Commissariat général du Plan pour favoriser l'indépendance et la scientificité des évaluations s'est révélée particulièrement lourde et complexe (cf. encadré ci-dessous).
|
|||||||||
|
Instance nationale d'évaluation animée par le Commissariat Général du Plan |
|
Instance régionale d'évaluation
|
|
nomme
|
|
Commission ou Comité scientifique régional |
|
|
(avis) |
|
Décide |
|
Projet d'évaluation |
|
|
|||
|
|||||||||
(avis éventuel) |
|
Décide |
|
Pré-études |
|
Réalise |
|||
|
|||||||||
(avis,
|
|
Décide |
|
Cahier des charges |
|
Rédige |
|||
|
|||||||||
(avis éventuel) |
|
Décide |
|
Choix des chargés d'évaluation |
|
Avis |
|||
|
|||||||||
Délègue les crédits |
|
Paie |
|
Réalisation de l'évaluation par les charges d'évaluation |
|
Pilote |
|||
|
|||||||||
|
|
|
|
Contre rapport méthodologique |
|
Réalise |
|||
|
|||||||||
Reçoit l'évaluation |
|
Reçoit l'évaluation. Décide de la
publicité
|
|
Evaluation finale |
|
|
Les multiples allers et retour entre les différents niveaux des instances régionales d'évaluation, d'une part, le Commissariat général du Plan, saisi pour avis et délégataire des crédits d'évaluation de l'Etat, d'autre part, étaient inévitablement source de délais.
En outre, les procédures budgétaires de délégation de crédit étaient trop lentes et trop lourdes. Les Régions estiment ainsi que « les crédits d'évaluation étaient difficilement mobilisables », ce qui a pu brider leurs ambitions en la matière.
Enfin, la multiplicité des commanditaires a pu rendre la procédure plus complexe encore, tandis que l'hétérogénéité des dispositifs régionaux n'a guère facilité la diffusion d'expériences.
Au total, la complexité des procédures d'évaluation a pu freiner, sinon dissiper l'enthousiasme initial pour la démarche, d'autant plus que la complexité des procédures contrastait singulièrement avec le manque de ressources humaines chargées de leur mise en oeuvre.
C'est d'abord vrai pour les services administratifs de l'Etat ou des Régions.
En effet les moyens d'expertise des SGAR étaient souvent très limités, et les services des Régions manquaient parfois d'expérience.
De plus, le Commissariat général du Plan ne disposait des moyens nécessaires ni pour diffuser des guides méthodologiques ou des cahiers des charges type, ni pour instruire au fond les études de faisabilité.
La réalisation des études de faisabilité, la rédaction des cahiers des charges et l'organisation des appels d'offres a donc pu soulever des difficultés. En particulier, certains cahiers des charges étaient trop peu précis.
Mais c'est aussi vrai pour l'offre extérieure d'expertise.
En raison de la nouveauté de la démarche, les instances régionales d'évaluation ont rencontré des problèmes d'offre d'expertise dans certaines régions.
En effet, les centres de recherche universitaires se sont relativement peu mobilisés .
En outre, les cabinets de consultants disposant d'une réelle expérience, sinon d'une réelle expertise en la matière, étaient relativement peu nombreux et souvent peu au fait des procédures de gestion et de décision publique.
Certaines Régions regrettaient ainsi que les intervenants extérieurs aient éprouvé des difficultés à s'approprier la culture administrative des différents partenaires du contrat de plan.
d) Les lacunes des données nécessaires à l'évaluation ont handicapé le processus
L'évaluation des politiques publiques contractualisées s'est également heurtée au manque de données relatives à la mise en oeuvre des actions contractualisées, comme à l'évolution de l'environnement socio-économique régional.
En premier lieu, l'évaluation des actions contractualisées est impossible sans des indicateurs détaillés de suivi physique et financier.
Or, ces indicateurs font largement défaut ou sont imprécis.
En second lieu, l'évaluation des politiques publiques nécessite des données socio-économiques générales.
Le système statistique français est parfois peu adapté à l'évaluation des politiques publiques contractualisées : il existe peu d'indicateurs à l'échelle infrarégionale , et les données disponibles sont souvent peu homogènes ou inscrites sur des supports informatiques non compatibles.
Selon certaines Régions, les indicateurs disponibles, et notamment les indicateurs diffusés par les observatoires régionaux de l'emploi et de la formation, demeurent en outre trop macroéconomiques.
Plus particulièrement, le ministère de la Ville indique que « le niveau géographique infracommunal, qui est celui des sites relevant de la politique de la ville, n'est accessible que par l'intermédiaire des données du recensement général de la population mené tous les 8 à 9 ans. Le système statistique français n'est donc pas adapté au suivi précis des sites relevant de la politique de la ville ».
Enfin, malgré de réels progrès , l'accès aux données de l'INSEE reste parfois difficile pour les chargés d'évaluation.
Au total, selon le Commissariat général du Plan, la reconstitution des données relatives à la mise en oeuvre des actions évaluées représenterait entre 25 % et 45 % du coût moyen des évaluations, sans que les données recueillies ne soient pour autant exhaustives.
e) Enfin, le poids des réticences culturelles a joué un rôle inhibiteur
Les partenaires du contrat de plan Etat-Région n'ont pas toujours su « apprivoiser » l'évaluation. Notre collègue, Pierre André, pouvait rendre compte de cet obstacle en ces termes :
« En effet, alors que la culture anglo-saxonne, plus pragmatique, est traditionnellement sceptique quant aux capacités décisionnelles des autorités publiques, la culture politique et administrative française reste très imprégnée par l'idée de l'omniscience des pouvoirs publics.
Dans le monde anglo-saxon, l'échec d'une politique publique peut être ainsi imputé au manque de données pertinentes dont disposaient les autorités publiques au moment de leur décision, ou bien plus simplement à un changement de circonstances. En revanche, en France, si une politique ne donne pas les résultats escomptés, c'est qu'elle avait été mal conçue ou qu'elle est mal mise en oeuvre.
Dès lors, l'évaluation est encore perçue en France moins comme un outil de gestion que comme une forme de contrôle , appelant in fine des admonestations, voire des sanctions , à l'instar des « inspections » réalisées par les corps d'inspection de l'Etat.
Les préfets et les élus, comme leurs services respectifs, étaient donc au départ souvent méfiants vis à vis de l'évaluation, voire « angoissés » par l'idée d'être ainsi « jugés ». Les élus contestaient d'ailleurs parfois la légitimité de ce jugement, au regard de la légitimité conférée par les élections.
Dans ces conditions, les décideurs publics pouvaient estimer avoir en fait peu intérêt à l'évaluation des politiques publiques . »
* 61 « Les troisièmes contrats de plan Etat-Régions (1994-1999) : une ambition inachevée » - Rapport n° 446 (1999-2000), M. Pierre André , Délégation du Sénat pour la Planification.
* 62 Les Conseils économiques et sociaux régionaux n'ont pas toujours été destinataires des rapports d'évaluation.
* 63 « Les contrats de plan Etat-Région 1994-1999 : analyse comparée des méthodes et des pratiques d'évaluation », Céline DAVID et Patricia CLAUZADE, note du Commissariat général du Plan, mars 2000.
* 64 Le coût annuel d'un fonctionnaire de catégorie A dont le salaire net, primes comprises, s'établit à 15 000 francs par mois, est de l'ordre de 300 000 francs par an, si l'on prend en compte le coût réel des pensions pour l'Etat-employeur. Cela correspond, sur la base d'une durée annuelle du travail effectif de 1800 heures, à un coût horaire de 166 francs, soit 333 francs pour une réunion de deux heures, auxquels il faut ajouter les temps de transport et de préparation de la réunion.