Évaluer et innover au sein du Service Public

Pieterjan Montens
17 min readMar 22, 2020

--

Photo de la nature sauvage et dramatique du nord canadien: forets, vallées et cimes enneigéés au loin
Innovation, évaluation, service public: les sommets d’une terre sauvage, dangereuse, riche en aventures

Cette aventure, car rédiger ce billet en était une, commence par les Raines’ Rules : une note d’un dénommé Raines (eh oui) à propos d’une loi qui venait de sortir (celle sur la réforme de la gestion des technologies de l’information de 1996 — ITMRA, plus tard rebaptisé loi Clinger-Cohen). Cette loi posait trois questions « difficiles », qui devaient être satisfaites avant de pouvoir considérer un investissement ou un achat technologique. Raines, inspiré, devait les trouver perfectibles ou peu compréhensibles et rédigea 8 règles qui dictent aujourd’hui encore l’acquisition et l’investissement en nouvelles technologies du secteur public aux États-Unis :

Les systèmes des agences devraient:

1. Soutenir les fonctions essentielles / prioritaires de la mission qui doivent être exécutées par le gouvernement fédéral ;

2. Être entrepris pour les cas ou aucune autre source privée ou gouvernementale ne peut soutenir efficacement la fonction ;

3. Soutenir les processus de travail qui ont été simplifiés ou repensés pour réduire les coûts, améliorer l’efficacité et maximiser l’utilisation de la technologie commerciale standard ;

4. Démontrer un retour sur investissement prévu qui est égal ou meilleur que les utilisations alternatives des ressources disponibles ;

5. Être cohérent avec l’architecture de l’information du gouvernement fédéral, des agences et des bureaux, qui intègre les processus de travail et le flux d’informations de l’agence avec la technologie pour atteindre les objectifs stratégiques de l’agence … et spécifier des normes qui permettent l’échange d’informations et le partage des ressources, tout en conservant une flexibilité dans le choix des fournisseurs et dans la conception des processus de travail locaux ;

6. Réduire les risques en évitant ou en isolant les composants conçus sur mesure; utiliser des projets pilotes, des simulations et des prototypes entièrement testés; établir des mesures claires et rendre compte de l’avancement du projet; et obtenir une participation substantielle des responsables du programme qui utilisent le système ;

7. Être mis en œuvre en phases aussi étroites que leur portée et aussi brèves que possible, chacune résolvant une partie spécifique d’un problème global de mission et offrant un avantage net indépendant et mesurable ;

8. Utiliser une stratégie d’acquisition qui répartit de façon appropriée les risques entre le gouvernement et l’entrepreneur, utilise efficacement la concurrence, lie les paiements contractuels aux réalisations et tire le meilleur parti de la technologie commerciale.

(la loi FITARA de 2015 confirme ces règles, et la circulaire A-130 de 2016, toujours d’application, y fait également référence)

Alors oui, ce sont les années ’90, ça sent les années Clinton - Blair à plein nez, les influences du New Public Management, et l’innovation est avant tout perçu comme étant technologique, et avant tout un produit. Néanmoins, ces règles forment une grille d’évaluation intéressante quant il est nécessaire d’estimer l’opportunité d’une innovation dans le cadre du service public (notez qu’on parle de service public, pas de produit: on y reviendra).

A force de m’y intéresser, à vouloir définir et comprendre l’innovation et son évaluation, les Raines’ Rules ont agi comme ce lapin blanc courant vers sa tanière, montre gousset en main. L’étendue de la littérature et de la science qui entourent l’innovation et l’évaluation est de fait vertigineuse.

Dans ce billet, j’espère pouvoir apporter un début de reflet d’aperçu modeste de ce pays merveilleux, en observant finalement que mis en relation ces deux sujets constituent potentiellement un ensemble bien plus riche que la somme de ses parties.

L’innovation, c’est quoi ?

Le Manuel d’Oslo (une publication de l’OCDE ) définit l’innovation comme suit :

Une innovation est la mise en œuvre d’un produit (bien ou service) ou d’un procédé (de production) nouveau ou sensiblement amélioré, (…) d’une nouvelle méthode organisationnelle dans les pratiques (…), l’organisation du lieu de travail ou les relations extérieures.

Cette définition permet de dépasser la définition classique et schumpéterienne de l’innovation technologique et matérielle (on retient toutefois quelques aspect intéressants: le rôle de l’entrepreneur, les grappes d’innovation, le rejet d’une théorisation excessive, … ): un service, un procédé, une autre méthode d’organisation du travail, des équipes, des projets, sont autant de sujets d’innovation possibles. Elle est simplement moins tangible, non technologique, certains disent même qu’elle est cachée.

Graphique qui représente l’intérêt décroissant entre l’innovation de produit, de process, de service et d’organisation.
Google Trends: l’innovation de service ou d’organisation intéressent moins que de produit ou process

Par ailleurs, le Manuel d’Oslo, toute comme la quasi entièreté de la littérature sur le sujet, ne traite que du secteur des entreprises. Littérature qui, majoritairement, ne parle déjà que d’innovation de produit et de procédé. Du coup s’installe une double tragédie: non seulement l’innovation dans le secteur public est largement ignorée, mais en plus les types d’innovation qui la concernent particulièrement (service et surtout organisation) sont les moins étudiés!

Parlons de l’innovation de service, à titre d’illustration. Ces 20 dernières années, en parallèle à la “servicisation” de notre société (Adobe, IBM, Michelin, … ), s’est développée toute une science et une littérature: les Service Studies. C’est une science sociale qui étudie la fourniture des services, ses conséquences économiques, sociales, environnementales, etc. Il se trouve qu’il convient également des les innover, d’où l’émergence d’une autre discipline : les Service Innovation Studies. Chercheurs, revues scientifiques, un inépuisable travail théorique: j’ai passé plus d’une soirée à étudier les principes d’assimilation (un service, ça se gère comme un bien), de démarcation (non, c’est pas un bien, un service à des spécificités !) et d’intégration (TOUT EST SERVICE !!!) de la grille ADI.

Les services publics et leur innovation dans tout ça ? Voyez plutôt l’intérêt qu’ils suscitent:

Graphique qui montre un grand intérêt pour les études de service et leur innovation, et l’inverse pour leur équivalent public
Google Trends: L’innovation des services publics ? Bof..

Les deux courbes du haut, rouge et bleu, représentent l’intérêt dans les recherches Google des service studies et des service innovation studies. Les deux autres, qu’on confondrait presque avec l’abscisse, représentent leur pendants publics.

Et pourtant, la puissance publique, avec ses valeurs et contraintes d’équité, d’égalité et de continuité, et l’étendue son impact et son rôle plus que central dans la société, est loin d’être un acteur de seconde zone en matière d’innovation. Même en mettant de côté quelques domaines éminemment innovants (services de santé, ceux liés à la recherche ou aux universités, …) l’état joue un rôle majeur dans l’innovation de notre société:

  • Il soutient l’innovation du secteur privé, en lui accordant des privilèges, des subsides, etc. Ce moyennant, il vise surtout à promouvoir la compétitivité de son économie ;
  • Il consomme (achète) et utilise des produits innovants, avec les moyens considérables qui lui sont propres;
  • Il génère de l’innovation, en partageant des données, en autorisant, régulant et subventionnant leur récolte, les publie en Open Data, etc…;
  • Il peut la développer, en être l’acteur, que ce soit en relation avec le privé ou en interne.

En ce qui me concerne, c’est ce dernier point qui m’intéresse: comment le service public peut se remettre en question afin d’innover dans les services qu’elle offre, dans les procédés qu’elle applique, dans la façon qu’elle à d’organiser son fonctionnement, … à cette question, la littérature scientifique ne répond pas, tout au plus constate-t-elle une absence de consensus, de formule éprouvée. Et même si une orientation devait être formulée, encore faut-il qu’elle soit pratique et pragmatique, prenant en compte les réalités parfois très humaines, politiques et relationnelles du terrain.

Avant de poursuivre, et afin de ne pas rallonger inutilement un texte déjà long, je pose quatre platitud.. postulats à propos de l’innovation dans le cadre du service public, observés à plusieurs reprises lors de mes recherches et réflexions:

  1. l’innovation est neutre: ni bonne, ni mauvaise ;
    Une innovation n’est pas automatiquement meilleure: c’est un processus créatif, désordonné, incertain et risqué par nature. C’est quelque chose de nouveau dans le contexte dans lequel il est appliqué, dont les effets restent à découvrir, à expérimenter (et à évaluer !).
  2. il y a ceux qui la soutiennent, ceux qui s’en moquent, et ceux qui y résistent ;
    Il y a une raison, et une histoire, derrière chaque service, procédé ou protocole. Certains vont, pour diverses raisons, la défendre, une (probablement grande) partie ne verra pas l’intérêt de changer, et des rebelles vont à tout prix vouloir tout refaire à neuf. Des livres entiers traitent des stratégies à mettre en œuvre pour inclure, convaincre, contourner, voir manipuler les différentes tendances.
  3. il y aura des gagnants et des perdants ;
    Et pas nécessairement par jeu de pouvoir: une antique interface en pur texte pourrait très bien être plus accessible pour un certain public que la nouvelle, entièrement graphique. Pour faire d’une innovation un apport positif net une voix doit nécessairement être donnée à ceux qui en subissent les effet.
  4. elle est nécessaire, mais pas toujours opportune ;
    Ne pas innover pour innover, en faire une question de performance, ou préférer oublier de considérer des solutions éventuellement plus réalistes et efficaces. Innover demande aussi un certain changement, qui n’est peut-être pas toujours anticipé, compris, ou accepté par tous. Reste qu’elle est absolument nécessaire: les citoyens sont en droit d’attendre aujourd’hui des services électroniques fournis par l’administration personnalisables, performants et sécurisés.
Groupe de travail en réunion, le Patron, debout, dit, traduit de l’anglais: Je ne veux pas changer, je veux que vous changiez
auteur inconnu

Ok ; et l’évaluation, c’est quoi ?

Sa définition est simple: l’évaluation est le processus de détermination du mérite, de la valeur, ou de la signification de “quelque chose”. Une évaluation est aussi le produit de ce processus, et oriente ou instruit in fine une prise de décision.

Il est possible de rapidement se perdre dans des considérations philosophiques voir métaphysiques de l’évaluation (quelle est sa nature ? est-elle objective ? est-elle possible ?) : les penseurs, scientifiques et chercheurs des domaines de l’évaluation lui ont fourni une littérature riche et inépuisable. Celui qui m’a le plus marqué est Michael Scriven, l’un des penseurs majeurs de l’évaluation des politiques publiques, mon chat du Cheshire. Il faut aussi citer Donald Campbell, bien qu’il est d’une tendance plus scientifique, qui préconise une évaluation basée sur des faits observables, démontrables, mesurables, empiriques, calculables. Scriven, lui, réfute l’approche “scientifique” et se concentre sur le jugement de la valeur, qui est de la responsabilité de l’évaluateur (qui occupe chez lui une place centrale). D’autres auteurs ont succédé à Campbell, Scriven, mais aussi Patton , Stufflebeam, Tyler, … je me limite aujourd’hui à une brève introduction, mais je recommande largement de s’intéresser aux outils et approches qu’ils ont développés.

L’évaluation consiste à différencier le “bon” et le “mauvais” (ce qui n’est déjà pas simple: petit clin d’œil au “bon voleur” d’Aristote). Le mot lui-même vient du vieux français, esvaluer: déterminer la valeur, le prix de quelque chose. Contrairement à ce qu’on peut penser, elle ne se fait pas uniquement après coup, d’un trait de crayon comme dans un contrôle d’école (quoique…), et sert encore moins à justifier un jugement de toute façon déjà pris (ce qui serait une excuse, pas une évaluation).

Brève typologie de l’évaluation

Dans les rôles que l’évaluation peut jouer, l’une des contributions que Scriven a apporté sont les concepts d’évaluation formative et sommative:

  • Une évaluation formative vise à assister et à soutenir une amélioration continue, à déceler et corriger les imperfections, s’il y a lieu, pendant la mise en œuvre d’un projet, d’un programme. Elle se fait par une personne proche voire interne à l’équipe;
  • une évaluation sommative trace un bilan, une vérification de ce qui a été réalisé, un jugement final sur l’ensemble des conséquences (généralement sur base de critères fixés à l’avance): est-ce que ça marche ou pas ? Faut-il continuer, reproduire, étendre ou abandonner ? L’évaluateur est ici une personne externe voir totalement indépendante;

Une autre distinction entre types d’évaluations est leur temporalité, le moment auquel ils se déroulent par rapport à leur sujet : au préalable (ex ante), intermédiaire, à la fin, et ex post (après les faits, idéalement tous les faits). Les plus intéressants sont l’ex ante et ex post, notamment car ils sont largement utilisées dans la politique d’évaluation de la Commission Européenne (voir règlement No1303/2013 du Chapelier fou), et bénéficient de ce fait d’une grande influence:

  • L’évaluation ex ante intervient avant la mise en œuvre. Sa fonction est notamment de vérifier l’adéquation des objectifs par rapport aux besoins, sa budgétisation, la qualité de sa planification, son opportunité, les enjeux ou problèmes à résoudre;
  • L’évaluation ex post s’effectue a la fin, ou après la fin d’une action, et vise à tirer les enseignements rétrospectifs, les effets, les impacts, et le respect de cibles éventuellement définies.

(La raison pour laquelle l’Europe est très orientée “évaluations” est qu’elle offre un moyen d’imputabilité, de vérification et de transparence des (in)actions entre ses organes politiques supra-nationaux. Ces évaluations sont toutes publiées et disponibles sur internet).

Quant à la façon, la manière, dont une évaluation doit être menée, la boîte à outils de tout évaluateur contiendra entre-autres les méthodes suivantes:

  • coût / bénéfice : mesure l’impact économique net: les coûts engendrés vis-à-vis des résultats apportés, encore faut-il pouvoir les chiffrer (chose naturelle dans le privé, moins dans le secteur public non-marchand);
  • coût / efficacité : si le bénéfice ne peut être chiffré, cette approche vise à comparer ce qui est envisagé avec d’autres alternatives aux résultats similaires, de façon à pouvoir en déterminer le moins coûteux / le plus efficace;
  • méthode Delphi : un process structuré d’obtention et de synthèse d’avis et de connaissances d’experts via des questionnaires particuliers. Il permet d’obtenir un jugement de groupe tout en évitant les biais;
  • panel d’experts : un groupe de travail spécifiquement constitué de spécialistes indépendants, à la manière d’un jury;
  • focus group : groupes de discussion particulièrement indiqués pour des sujets divergents, clivants et/ou complexes devant être explorés en profondeur;
  • évaluation d’impact : un domaine extrêmement large, sujet aux guerres de clocher, véritable Reine de cœur. Deux tendances majeures:
    - trouver la cause des effets produits, les raisons du succès ;
    - la méthode contrefactuelle: comparer ce qui est obtenu avec l’état des choses si l’action évaluée n’avait pas eu lieu.

Petite parenthèse: c’est quoi la différence public / privé, au fond ?

Excellente question ! Certains pensent qu’il ne devrait pas y en avoir : que l’état devrait se gérer comme une entreprise, idéal d’efficacité, de rentabilité et de productivité (en jetant gaiement par dessus bord l’équité, l’égalité et la continuité, les valeurs premières de tout service public, et toute une série d’autres ).

Il existe plusieurs manières de voir et de considérer l’administration publique, de la façon dont elle devrait aborder les problématique et déboucher à une solution, et comment elle devrait se gérer. Pour simplifier, on les résume aujourd’hui à trois courants principaux:

  • L’administration traditionnelle: Une hiérarchie bureaucratique pyramidale, qui fonctionne par processus, et développe des services standardisés, industrialisés, pour tous;
  • Le nouveau management public / nouvelle gestion publique: utilise l’approche du marché du privé. Concurrence, privatisation et externalisation, importance donnée aux résultats obtenus. Le “service”, qui reste industriel et commun à tous, est considéré comme un bien quasi-marchand, qui doit fidéliser le citoyen “client”;
  • La nouvelle gouvernance publique: coordonné en réseau, partenariats horizontaux, avec comme valeurs la confiance et la réciprocité. Le service public se démarque du “produit” et est un vrai service, conçu en collaboration et co-construction avec le citoyen “usager”. Ouvert à l’innovation, l’amélioration continue, et à la personnalisation du service selon les besoins, et d’autres critères de performance et d’impact (sociétal, environnement, économique, …)

Les think tanks (Tweedledee ?) et autres lobbies (Tweedledum !) développent constamment de nouveaux modèles, chacun essayant de prévoir le next big thing (Digital Era Governance ?). D’autres auteurs comparent l’évolution des services publics à l’évolution de l’informatique (alors qu’elle lui précède de quelques siècles) : d’abord centralisée et peu visible (gros mainframes), puis diffusée et électronique (les micro-ordinateurs), et enfin distribuée, personnalisée et omniprésente (apps & smartphones). Enfin soit, je digresse: revenons à l’évaluation, et comment celle-ci à su innover.

Photo d’écrans d’ordinateur sous Linux affichant divers applications techniques colorées
Une peu de couleur dans ce monde brutaliste noir & blanc

L’innovation de l’évaluation

L’évaluation ne se limite heureusement pas aux approches formalistes, normatives, cloisonnées et détachées définies plus haut. De nouvelles théories et pratiques de l’évaluation lui permettent d’être émancipatrice, inclusive, délibérative, démocratique, libérée, délivrée, bien que souvent les théoriciens regrettent un certain manque d’intérêt, pour les outils moins “standards”, de la part des organes et agents professionnels de l’évaluation.

L’évaluation affranchie des objectifs

Pensée par Scriven (encore lui) dans les années 70, fort simple au premier regard : plutôt que de se limiter aux objectifs visés et aux conséquences escomptées, l’évaluateur les ignore et se concentre sur les effets réels, quels qu’ils soient. Au lieu de cocher les cases des objectifs et déclarations d’intention définis et accomplis ou non par l’équipe, il se concentre sur les utilisateurs, les populations cibles, et celles indirectement touchées, pour mesurer l’impact et la satisfaction obtenue concrètement. Cette approche permet par exemple de mettre en évidence un impact environnemental ou comportemental — positif ou négatif — d’une politique, sans que cet effet n’ait été prévu et poursuivi initialement.

L’évaluation démocratique délibérative

En incluant toutes les parties prenantes, l’évaluateur a pour mission d’encadrer un dialogue ou chacun exprime ses intérêts, attentes et perspectives. Des règles de représentation et de prise de paroles évitent les rapports de force, positions d’autorité, et inversions de pouvoir, afin que se mette en place une relation de confiance et une authentique délibération sur base de données probantes et d’arguments valables. La qualité de l’évaluateur et sa capacité à instaurer une bonne dynamique est ici cruciale, qu’on imagine difficile à réaliser. L’efficacité de l’approche est néanmoins démontrée, en particulier au Canada.

L’évaluation habilitative

Imaginée par David M. Fetterman, elle évite l’objectivité et le détachement d’une évaluation externe en faveur d’évaluations internes, axées sur la valeur, visant à mettre en place un cercle vertueux d’auto-amélioration continue par l’autodétermination. La dernière définition (Wandersman, 2005) est la suivante:

Approche évaluative visant à accroître les probabilités de succès d’un programme en (1) fournissant aux parties prenantes du programme les outils leur permettant d’apprécier la planification, la mise en œuvre et l’autoévaluation du programme et en (2) intégrant les activités évaluatives au reste de la planification et de la gestion du programme/organisation

Bien que fort théorique, elle reste proche d’autres démarches participatives ou collaboratives. Le fait qu’elle se fonde sur l’inclusion et la participation des parties prenantes renforce la validité de ses résultats, et leur acceptation par l’ensemble des acteurs.

Personnellement, je trouve que ces approches nouvelles de l’évaluation sont proches des méthodes organisationnelles innovantes employées aujourd’hui, que ce soit dans le secteur public ou privé. Tenter de les comprendre, et pourquoi pas les employeur pour dépoussiérer l’image formaliste et dérangeante de l’évaluation, était une motivation particulière dans la rédaction de ce texte.

Petit croquis, au crayon, d’une tasse de café avec un nuage de lait en forme de petit coeur.
Pause café !

L’évaluation de l’innovation

Le service public a besoin de l’innovation, mais comment savoir si cette dernière est utile ? Qu’elle va dans le bon sens ? Qu’elle apporte les résultats attendus ? Elle doit donc être évaluée… mais si cela impacte négativement l’innovation ? Écrase sa créativité ? Instaure un climat d’aversion au risque, de peur de l’échec ;rationalise ou tire des conclusions trop hâtives, mal informées, ou basées sur une méfiance du “nouveau”, du “disruptif”, de l’inhabituel ?

Un rapport en cours de rédaction de l’OPSI, l’observatoire de l’innovation du secteur public de l’OCDE, note qu’il n’existe aucun framework reconnu d’évaluation de l’innovation dans le secteur public, et que ses spécificités font qu’il en est peut-être mieux ainsi (le rapport est également extrêmement intéressant, et mérite amplement qu’on s’y attarde).

Ma propre expérience est que l’innovation est régulièrement mal perçue, mal comprise, “il ne faut pas confondre innovation et agitation” (encore cette Reine de cœur !) … Pour moi l’évaluation peut être un outil majeur d’acceptation de l’innovation, sans se perdre en rapports de force hiérarchiques ou politiques. Une évaluation qui implique, explique, inclut, démontre et défend une approche innovante, qu’il s’agit d’un projet de service ou de l’instauration d’une approche agile de développement des services, aurait ainsi plus d’efficacité pour convaincre et rallier les parties prenantes et rassurer les résistants que des approches plus habituelles, qu’elles soient politiques, réglementaires, imposées, autoritaires, etc…

En reprenant les quatre postulats de l’innovation définies plus haut, on observe qu’il est possible de les conjuguer de manière cohérente avec les quelques types d’évaluation rencontrés:

1 — l’innovation est neutre: ni bonne, ni mauvaise

Une évaluation ex post permet d’en déterminer les impacts positifs, négatifs, attendus et imprévus, et de lister les leçons et apprentissages acquis, qu’ils soient bons et destinés à être reproduits, ou évités dans le cas contraire (ce qui ne les rend pas moins utiles).

2 — il y a ceux qui la soutiennent, ceux qui s’en moquent, et ceux qui y résistent

Il y aura toujours, et à raison, ceux qui défendent le status quo. D’autres émettront des réserves. Il va sans dire que les aspérités personnelles ont une importance de premier ordre, et l’incompréhension, l’acharnement d’un camp ou de l’autre peut mener à des résultats indésirables. Pour augmenter les chances de succès, informer et pacifier le débat et l’aider à progresser, des évaluations délibératives formatives et régulières, en cours de projet, pourraient inclure les parties et apporter des assurances et des éclaircissements, traduire dans le vocabulaire de l’un le jargon de l’autre, et servir d’indicateur indépendant quant au progrès réalisé et potentiel, tout en garantissant de l’autonomie et de l’indépendance aux équipes concernées.

3 — il y a des gagnants et des perdants ;

Forcément, une nouveauté engendrera un changement de comportement, d’habitudes, en favorisera certains pour en défavoriser d’autres. Les identifier clairement, et leur donner l’opportunité de s’exprimer et d’être considérés est une nécessité, qui peut se retrouver dans une évaluation sommative.

4 — elle est nécessaire, mais pas toujours opportune

Toute innovation, toute nouveauté n’est pas par définition bonne à poursuivre, et mieux vaut en être avisé avant de l’entreprendre. L’innovation pour l’innovation n’est pas une fin en soi (sauf si on en fait un critère de performance mal placé, vaniteux). Une évaluation ex ante, incluant les objectifs fixés, les moyens considérés, le budget affecté, etc… permettrait une meilleure affectation du temps, du personnel et des moyens disponibles et oh combien limités.

La partie de criquet (ou était-ce le procès du Valet de Cœur ?) se termine, et vous vous réveillerez bientôt. J’ai pour ma part passé 15 ans à travailler dans le milieu de l’innovation numérique, sans vraiment la comprendre au sens théorique du terme, sans rencontrer une fois une évaluation sérieuse, utile, fondée. Cette aventure m’aura permis de mieux les comprendre, un apprentissage que j’ai hâte de mettre en pratique, une fois de retour à la réalité.

Quelques exemples d’institutions et de politiques d’évaluation publiques:

  • En France, la Commission nationale d’évaluation des politiques d’innovation (CNEPI), installée au sein de France Stratégie, entend améliorer l’efficacité et l’efficience des politiques d’innovation et éclairer les décisions de tous les acteurs du système national d’innovation, notamment les pouvoirs publics;
  • La Grande-Bretagne a crée un réseau de centres What Works, qui ont vocation à améliorer la manière dont le gouvernement et les autres organisations du secteur public créent, partagent ou utilisent de l’information de qualité dans leur prise de décision. Ils évaluent des politiques publiques, produisent des rapports, et partagent l’information ainsi obtenue pour diffuser “ce qui fonctionne”;
  • Le Danemark a le center for offentlig innovation: une cellule qui tente de mettre en évidence l’interdépendance de l’évaluation et de l’innovation en sensibilisant les innovateurs du service public;
  • La Nouvelle Zélande est une référence en termes d’évaluation des politiques publiques et d’analyse des bénéfices apportés;
  • Les Pays-Bas ont un bureaux spécifique pour évaluer les initiatives ICT des services publics, dont la plupart se veulent innovantes: le Bureau ICT-toetsing (BIT). Chaque avis émis de ce bureau est une leçon sur les thèmes abordés, et sa “jurisprudence” est tellement riche qu’il sera le sujet de mon prochain billet.

Ce billet est le troisième d’un cycle sur l’innovation numérique au sein du service public. Après avoir sommairement listé les approches agiles dans différents pays (“L’approche agile qui fonctionne”), le second a décrit ma propre expérience au sein d’un incubateur de Start-ups d’État.

Sources :

--

--