Repenser les concertations avec le traitement automatique des langues

Repenser les concertations avec le traitement automatique des langues

L’art de la synthèse — Partie 1

Accompagnatrice d’institutions pendant leurs processus de concertation, Open Source Politics doit développer une expertise sur toutes les étapes d’une telle démarche. Nous avons, ces derniers mois, beaucoup travaillé sur l’élaboration des synthèses que l’on nous demande dans un but de mise en forme et d’exploitation des diverses contributions aux plateformes numériques que nous construisons. Les volumes de contributions sont en effet particulièrement importants et il est relativement difficile de parvenir à toutes les exploiter correctement sans perdre de vue la cohérence de l’ensemble. Nous avons développé des compétences spécifiques, tournées vers le traitement automatique des langues (TAL), avec un logiciel spécialisé, afin de fournir des synthèses plus précises tout en prenant en compte la structure générale des contributions. Open Source Politics a notamment pu tester ces outils et un logiciel lors de la mission réalisée pour l’Assemblée nationale en octobre 2017—nous y reviendrons.

Ces deux articles sont l’occasion pour nous de retracer notre réflexion sur le sujet, expliquer notre intérêt pour le traitement automatique du langage et exposer nos résultats. Dans ce premier article, nous retracerons rapidement l’histoire du TAL avant de nous concentrer sur l’intérêt de cet outil pour Open Source Politics. Le deuxième article sera consacré à une étude de cas qui nous permettra de montrer, en pratique, l’apport du TAL ; nous reviendrons également sur l’utilisation qu’Open Source Politics en a fait par le passé ainsi que l’évolution de notre réflexion jusqu’à aujourd’hui.

Prémices

C’est l’analyse des données, basée sur la statistique, qui constitue l’ancêtre de la textométrie (la mesure du texte). Il est alors relativement aisé de tracer les premières utilisations de la statistiques et des probabilités à des fins d’analyse du réel. Les historiens soulignent ainsi la récurrence des observations statistiques opérées entre autres par les scribes de l’Egypte antique. Pour Jean-Paul Benzécri, ce sont les nécessités de l’administration des grands empires, tant égyptien que chinois ou mésopotamien, qui impulsent l’usage des statistiques.

Ce n’est par contre qu’à partir des 15 et 16èmes siècle que la mathématisation de la discipline est entreprise, par l’intermédiaire des découvertes de Galilée, Pascal ou Bernoulli notamment. On observe après ces premières avancées un développement croissant de la discipline, malgré une interruption pendant le 19ème siècle. On quitte ensuite la théorie générale de l’analyse des données (via les probabilités et la statistique) pour se concentrer sur l’analyse des textes, qui constituent des données au même titre que les relevés de la hauteur du Nil des scribes égyptiens.

Origines

Descendant (consciemment ou inconsciemment) en droite ligne de la philosophie du langage de Wittgenstein et son obsession à identifier les règles de l’emploi des mots, le traitement automatique des langues est né selon Catherine Fuchs et Benoît Habert au croisement de deux préoccupations venant de domaines assez éloignés.

Le domaine académique s’intéressait ainsi dans la deuxième moitié du 20ème siècle à la formalisation mathématique du langage car cela permettait de le décrire “à la manière d’une machine”.

Au même moment, les nécessités de la Guerre Froide ont favorisé l’intérêt du secteur de la défense pour la traduction automatique. Ces deux enjeux ont attiré les financements et la recherche dans le domaine du traitement automatique des langues s’est alors développée. Deux types d’applications se sont distingués. Le premier s’attache à l’écrit avec notamment :

  • la traduction automatique,
  • la génération automatique de texte (des articles ont par exemple été générés automatiquement par Syllabs pour Le Monde lors des élections départementales de 2015),
  • les correcteurs orthographique et grammatical,
  • les moteurs de recherche,
  • le système de messagerie : le filtrage des mails (spam/pas spam),
  • la classification,
  • l’extraction d’information,
  • les agents conversationnels (chatbots),
  • la reconnaissance optique de caractères (OCR).

Le deuxième type d’application s’est concentré sur l’oral, la vidéo et à d’autres formats multimodaux, notamment à travers la gestion d’appels, l’enseignement par ordinateur, le contrôle de système par voix, la synthèse de la parole.

Logométrie

La discipline que représente le traitement automatique des langues s’est essentiellement développée en France à partir des années 1970, dans la lignée des recherches pionnières de Pierre Guiraud et de Charles Muller en statistique lexicale. C’est durant cette période que de nombreuses façons de représenter la donnée textuelle émergent.

Parmi celles-ci, la textométrie (mesure du texte) fait partie d’une discipline qu’on appelle l’analyse de données textuelles (ADT). La lexicométrie (mesure du lexique) en fait également partie et la logométrie s’ajoute à ces deux disciplines, complétant ainsi l’ADT. S’attachant d’abord à évaluer la richesse du vocabulaire d’un texte, la textométrie s’est ensuite spécialisée dans différentes procédures telles que le calcul des correspondances, la classification et d’autres procédures.

Quant à la logométrie (logos = discours ; métron = mesure). Cette discipline se développe au 21ème siècle dans le cadre des humanités numériques. Elle se présente comme un prolongement naturel de la lexicométrie (mesure du lexique) et de la textométrie (mesure du texte). Seulement, c’est le discours ou logos (c’est-à-dire le discours politique, littéraire, médiatique, scientifique…) dans ses dimensions linguistiques et sociales qui est son objet. Il s’agit d’une méthode d’analyse et d’interprétation des discours utilisée dans les Sciences Humaines et Sociales qui est assistée par ordinateur, elle combine ainsi lecture qualitative et lecture quantitative des corpus numériques. Elle articule également lecture globale (le discours entier) et lecture locale (les unités du discours) pour construire l’interprétation.

Rappelons ici deux définitions du concept de “texte” : d’abord, “un texte est une série orale ou écrite de mots perçus comme constituant un ensemble cohérent, porteur de sens et utilisant les structures propres à une langue (conjugaisons, construction et association des phrases…).” Ensuite, “un texte peut représenter un entretien, un article, un livre ou tout autre type de documents. Un corpus peut contenir un ou plusieurs textes (mais au minimum un).” Nous pouvons, à partir de ces deux définitions complémentaires, éclaircir le lien entretenu entre la notion de texte et celle du discours dans le domaine de la logométrie. En effet, si le concept de discours est entendu comme un type de texte d’ordre personnel selon Emile Benveniste, le concept de texte est quant à lui perçu comme une série orale ou écrite de mots cohérents entre eux. Ce dernier est donc à appréhender dans sa forme générique.

Pour résumer les notions auxquelles la démarche de traitement de la donnée textuelle répond, voici les différents éléments qui la constituent :

  1. Les propositions sont des séries écrites de mots.
  2. Dans un corpus textuel sont rassemblés un ou plusieurs textes (de type “discours”) correspondant aux propositions de la consultation. Il s’agit de l’unité établie et constituée manuellement, sur laquelle nous travaillons et qui servira au traitement avec le logiciel IRaMuTeQ.
  3. “Le texte” est un hyperonyme ; il regroupe plusieurs mots plus spécifiques : discours, entretien, article, livre, ou autres.
  4. Une consultation rassemble plusieurs types de discours : “argumentatif”, “explicatif”, “descriptif” par exemple.
  5. Le discours engage systématiquement celui qui le prononce, et est donc envisagé comme étant “personnel”.

De fait, la logométrie qui s’applique au discours est donc naturellement adaptée aux jeux de données des différentes consultations réalisées avec les plateformes déployées par Open Source Politics.

Le logiciel au service de l’analyste

Les résultats de l’analyse réalisée avec le logiciel IRaMuTeQ, un logiciel libre développé par Pierre Ratinaud au sein du Laboratoire d’Etudes et de Recherches Appliquées en Sciences Sociales (LERASS), ouvrent la voie à différentes interprétations. La statistique textuelle permet à l’analyste de s’appuyer sur des critères quantitatifs et non sur une interprétation subjective. Le logiciel nous permet de prendre en compte l’ensemble des dimensions du corpus, permettant à la fois une exhaustivité et une spécificité de l’analyse. Cette démarche nous invite en effet à témoigner à la fois de la contribution individuelle et de la contribution collective.

L’enjeu est de révéler l’articulation des propositions, de révéler comment les propositions interagissent entre elles. Cette articulation se manifeste par une représentation spatiale des contributions, par des graphiques qui permettent d’interpréter plus facilement les résultats de la consultation. Vous trouverez ci-dessous des exemples de visualisation graphique des données intégrés à notre travail de synthèse effectué pour l’Assemblée nationale.

Les résultats produits sont non seulement plus lisibles et compréhensibles, ils correspondent également à un point de vue que nous n’aurions pu adopter sans l’outil.

Par ailleurs, à partir du moment où le fonctionnement du logiciel est expliqué, nous pouvons également garantir que son utilisation n’est pas une simple exploration mathématique déconnectée de la réalité. En effet, elle s’attache à une dynamique autonome qui prend en compte le contexte de la consultation et fait appel à l’attention de l’analyste. Notre synthèse enrichie par ce logiciel ne peut se passer d’une action externe, puisque le logiciel ne fonctionne pas sans l’implication de l’analyste qui devra paramétrer le logiciel en fonction de ses besoins et de son postulat de départ.

Si le traitement ne tient pas compte du contexte en premier lieu, l’analyste se doit de réintroduire cette notion de façon systématique. Par ailleurs, nous ne pouvons pas isoler l’outil d’une problématisation antérieure. L’utilisation d’IRaMuTeQ ne peut être envisagée par et pour elle-même, détachée de toute réflexion en amont. Les sorties produites, dont vous pouvez avoir un aperçu grâce aux exemples ci-contre, seront soumises à l’interprétation humaine en regard de l’hypothèse de départ.

Conclusion

Open Source Politics allie donc à la compréhension de ces algorithmes une interprétation lucide des résultats. Autrement dit, la transparence des algorithmes du logiciel IRaMuTeQ (favorisée par les différents manuels disponibles en ligne ainsi que le libre accès au code) nous permet de garantir l’autonomie d’Open Source Politics dans l’interprétation des résultats et dans la fiabilité des résultats.

@OpenSourcePol

Les innovations méthodologiques utilisées par OSP pour l’analyse des discours

Les innovations méthodologiques utilisées par OSP pour l’analyse des discours

Les innovations méthodologiques utilisées par OSP pour l’analyse des discours

L’art de la synthèse – Partie II

Le traitement automatique des langues (TAL) est un domaine situé au croisement de trois disciplines qui sont la l’analyse linguistique, l’informatique et l’intelligence artificielle. Ce domaine est déjà en développement chez Open Source Politics. Nous aurons l’occasion dans ce deuxième article dédié à la vision de la synthèse que nous avons adoptée de détailler les raisons de notre choix logiciel, d’expliquer plus précisément son action, de développer une petite étude de cas et enfin de revenir sur notre mission avec l’Assemblée nationale afin de clarifier encore l’intérêt de ce type d’outil pour notre activité.

Un choix logiciel traduisant une orientation stratégique.

L’approche que nous adoptons à travers la logométrie est corrélée au TAL. Cette procédure d’analyse de données textuelles à travers les statistiques intervient via IRaMuTeQ, un logiciel libre développé par Pierre Ratinaud au sein du Laboratoire d’Etudes et de Recherches Appliquées en Sciences Sociales (LERASS), dans le cadre de la rédaction de nos synthèses.

À l’heure où les outils de text-mining se multiplient et se spécialisent dans des tâches de plus en plus spécifiques, il en demeure quelques-uns qui offrent la possibilité d’embrasser une grande diversité de traitements. Beaucoup d’outils sont le plus souvent payants et ne permettent pas toujours d’accéder à un panel de procédures satisfaisant, c’est pourquoi Open Source Politics utilise le logiciel open source IRaMuTeQ. Il permet de réaliser de nombreuses procédures de logométrie sur un corpus très large. Les avantages sont nombreux et profitent à l’analyste mais aussi et surtout au citoyen. Un tel outil lui permet par exemple de mieux visualiser la donnée qui lui est présentée et lui confère ainsi une meilleure appropriation des thématiques et des propositions présentes au sein d’une consultation.

Rappelons par ailleurs que les méthodes de la statistique textuelle permettent plus généralement de traiter les textes tels qu’ils ont été écrits ou recueillis sans intervenir pour les modifier. Ainsi, aucune intervention subjective n’interfère au cours de la procédure, garantissant ainsi la richesse lexicale du corpus. Nous traitons des verbatim (propositions) sous leur forme brute que l’on tentera ensuite de saisir et d’analyser à travers le sens des mots et les formes des phrases qui les structurent. En outre, cette discipline auquel le logiciel répond permet d’aborder un corpus sous un angle “objectif”. Ainsi, pour Bénédicte Garnier et France Guérin-Pace, “la statistique textuelle permet d’objectiver et de synthétiser ces informations qualitatives pour faire émerger une représentation commune et diverse à la fois”.

L’objectivité vient des calculs produits par le logiciel. Ce dernier exécute rigoureusement, toujours de la même manière, le traitement du corpus à travers les différentes procédures. Toutefois, les résultats produits ne se suffisent pas à eux-mêmes et nécessitent une interprétation par l’analyste. Ainsi, nous parlons bien d’un traitement objectif via les algorithmes du logiciel. L’analyse finale intègre ce traitement mais se veut au plus près du contexte.

Etude de cas, l’analyse par Iramuteq 

Le débat sur l’identité nationale initié par le gouvernement français au cours de la mandature 2007–2012 a fait l’objet d’un traitement statistique par les chercheurs qui ont développé le logiciel IRaMuTeQ. L’objectif était de comprendre et de rendre compte de la profondeur du débat contrairement aux divers comptes-rendu médiatiques. Pour Pascal Marchand et Pierre Ratinaud, “l’analyse par IRaMuTeQ permet de rendre compte du contenu de toutes les contributions, sans piocher au hasard dans la masse, ni faire intervenir nos propres préjugés. Il s’agit juste de reconnaître et de trier automatiquement l’intégralité du vocabulaire utilisé par les internautes pour obtenir des classes de discours”.

Ils ont analysé les 18 240 contributions publiées sur le site web du Ministère de l’Immigration, de l’intégration, de l’identité nationale et du développement solidaire.

Leur traitement comprenait plusieurs procédures qui ont permis de mettre en perspective les propositions et d’obtenir des résultats significatifs. Cinq thématiques ont ainsi été isolées et rapprochées des contributions individuelles. Voici un exemple d’interprétation possible à partir des calculs réalisés par le logiciel IRaMuTeQ :

Cette première étape d’analyse au plus près des verbatim constitue un niveau basique d’analyse de la structure du corpus. Elle permet à l’analyste de faire un premier bilan de ce qu’il a compris grâce au logiciel et doit permettre d’affiner son exploitation des contributions. Comme vous pourrez le constater grâce à l’extrait que nous avons reproduit ci-après, la synthèse finale ne se resservira pas de cette première analyse mais témoignera d’un degré d’abstraction important par rapport au corpus originel et aux premières analyses.

On suit donc ici l’intérêt principal de l’outil de TAL dans le cadre de la rédaction d’une synthèse : fournir des outils d’analyse, des cadres à partir desquels l’analyste pourra ensuite déployer ses interprétations de l’ensemble des contributions, en étant absolument certain de prendre en compte l’entièreté du corpus. L’outil est une pièce nécessaire mais pas suffisante du raisonnement conduisant à la construction d’une synthèse.

En partant des groupes d’opinions que le logiciel a permis de formaliser, les chercheurs ont ainsi pu exprimer des polarités qu’ils n’auraient pas remarquées en parcourant le site web manuellement. Il est d‘ailleurs à noter que le site du ministère n’a pas fait l’objet d’une politique d’open data. Dès sa fermeture, l’ensemble des données a donc été perdu, ce qui constitue une excellente illustration de la nécessité du libre accès aux données.

Ainsi, à travers l’usage d’IRaMuTeQ, les chercheurs ont non seulement extrait les thématiques abordées mais ont également explicité des émotions parfois contradictoires présentes en filigrane à travers le corpus.

L’intérêt de la démarche.

Nous avons eu l’opportunité de développer cette nouvelle méthodologie lors de la mission effectuée avec l’Assemblée nationale en octobre 2017. L’institution avait alors lancé une concertation visant à ouvrir un espace d’expression citoyenne sur le thème de la refondation de l’Assemblée ainsi que les potentielles ouvertures à la participation citoyenne au cours du travail parlementaire. Nous avons donc dû produire, en un temps relativement court, une synthèse témoignant au mieux du contenu déposé par les citoyens sur la plateforme DemocracyOS déployée par Open Source Politics pour l’occasion.

Nous avons choisi de faire reposer la synthèse sur une hybridation de deux méthodes ; nous avons ainsi isolé les verbatim qui nous semblaient les plus pertinents dans chaque catégorie. Ce processus de sélection a été rendu possible par l‘activité quotidienne de l’équipe d’Open Source Politics sur la plateforme pendant toute la durée de la consultation.

Ce travail nous a donné une importante connaissance intrinsèque des contributions. Nous avons adjoint le traitement automatique du langage à ce premier processus. Nous avons donc pu fournir à l’Assemblée nationale des graphes de visualisation des contributions — cela nous a permis d’obtenir une distance vis-à-vis de la concertation qui nous paraît impérative dès lors que l’on souhaite obtenir une synthèse représentative des échanges, objective, non biaisée par notre engagement quotidien sur la concertation. Cette première expérience a donc marqué la première utilisation par Open Source Politics du TAL dans la rédaction d’une synthèse qui a ainsi été d’autant plus étoffée et nourrie.

De manière plus générale, à l’issue d’une consultation en ligne, nous construisons une synthèse représentative des échanges qui ont eu lieu lors des débats. Dans cette synthèse, nous allons spécifier les exemples de verbatim les plus discriminants, qui sont aussi les plus explicites en terme de sens vis-à-vis de la problématique et des thèmes initiés lors du débat. L’usage d’une procédure de logométrie n’est pas indispensable mais elle donne plus de possibilités de lecture du jeu de données. Le traitement automatique de la langue permet donc d’enrichir la synthèse grâce à des procédures non-reproductibles par l’humain et augmentant la capacité de traitement d’un important volume de données.

En bref, voici la liste non-exhaustive des éléments qui valorisent la synthèse :

  • Un point de vue unique sur le jeu de données issu de la consultation,
  • Une représentation des mots les plus révélateurs,
  • Une visualisation graphique des données présentée de manière intelligible.
  • Une démarche objectivée mais humble : les résultats sont des pistes proposées, ils restent interprétables par le citoyen et réutilisable par qui le veut.

Conclusion

Dans le cadre des missions les plus ambitieuses, Open Source Politics suit le processus de concertation de ses clients depuis la définition des attentes de l’organisation jusqu’à la rédaction de la synthèse et l’annonce des résultats.

Nous sommes donc impliqués quotidiennement dans le suivi des contributions, ce qui nous laisse peu de distance vis-à-vis de celles-ci. Dans l’objectif de la rédaction d’une synthèse, le traitement automatique du langage (TAL) nous permet donc de faire fi de nos préjugés tout en rendant compte de la totalité des contributions, ce qui serait chose impossible sans l’intervention du TAL.

À l’issue de ce processus nous avons donc acquis une double compétence vis-à-vis du corpus, à savoir l’implication directe et la distanciation nécessaire à l’élaboration d’une synthèse équilibrée. Celle-ci pourra alors servir au mieux son objectif premier, permettre la clarté de la contribution des citoyens pour faciliter la co-construction des politiques publiques.

Civic Hall européen à Madrid : quinze jours en immersion

Civic Hall européen à Madrid : quinze jours en immersion

Dans le cadre d’un hackathon de deux semaines sur le thème de l’intelligence collective au service de la démocratie, Virgile Deville s’est rendu, pour Open Source Politics et Democracy Earth, à dans le Civic Hall Madrid afin de faire évoluer Sovereign, le projet de logiciel de la fondation. C’était également l’occasion pour lui de découvrir le Medialab Prado, un véritable espace collaboratif citoyen.

Arrivé à Madrid le 18 novembre 2016, Virgile a pu rapidement s’imprégner de l’atmosphère qui régnait sur place. Coup de cœur immédiat pour la capitale espagnole, vivante tout en restant fidèle à son histoire, à la fois agréable et abordable. Le seul bémol aura été l’absence regrettée du beau temps.

Situé en plein centre de la ville, à proximité de la gare d’Atocha, le Civic Hall madrilène s’est installé dans une ancienne scierie réaménagée, au cœur d’un quartier dynamique et festif. Le bâtiment est spacieux et aéré. Il compte un fablab, un espace d’exposition, un grand espace de travail et une salle de conférence. L’équipe du Medialab Prado est composée non seulement de personnes de la mairie — le “ParticipaLab” — mais aussi de personnes en résidence sur place — sociologues, hackers (robotique), arts numériques… Ce staff éclectique gère l’accueil et travaille sur des projets personnels. Une attention toute particulière est donnée à la médiation. Ainsi, des personnes sont là pour accueillir les différents publics et les aider à utiliser le lieu, ouvert à tous. Chacun peut décider de venir y proposer un projet quand il le souhaite. En résumé, le Medialab Prado c’est une équipe bienveillante et ouverte, mais aussi et avant tout acharnée et travailleuse, professionnelle et expérimentée puisqu’il existe depuis 10 ans. Avant d’occuper son emplacement actuel, l’équipe du Medialab se réunissait dans un espace en sous-sol.

Medialab prado
Installés dans une ancienne scierie, les locaux du Medialab Prado sont incroyablement spacieux et biens aménagés.

Une fois la découverte du lieu effectuée, les choses sérieuses pouvaient commencer. Le staff du Medialab s’attela à former des groupes de travail pluridisciplinaires, avec un éventail de compétences allant du code à la rédaction ou la narration, en passant par des profils plus artistiques.

Installés dans une ancienne scierie, les locaux du Medialab Prado sont esthétiques et spacieux

Une fois la découverte du lieu effectuée, les choses sérieuses pouvaient commencer. Le staff du Medialab s’attela à former des groupes de travail pluridisciplinaires, avec un éventail de compétences allant du code à la rédaction ou la narration, en passant par des profils plus artistiques.

Le sujet sur lequel tous les groupes allaient devoir travailler était le suivant : “L’intelligence collective au service de la démocratie”.

En plus de Virgile (Open Source Politics/Democracy Earth), l’équipe était composée de Claudia (artiste numérique), Angeliki (illustratrice), Mia (auteure d’une thèse sur les nouvelles formes de partis politiques ), Mair (étudiante en sciences politiques ), Roxana (experte en design-thinking) et enfin Juan-Felipe (scénariste). En parallèle, deux codeurs ont participé au projet : Gage et Osiel.

Les supers illustrations créée toutes au long des deux semaines.

Dream Team at work !

Une équipe dont les membres avaient donc des parcours diamétralement opposés, mais complémentaires… Pas évident pour Virgile d’encadrer des profils aussi éclectiques. Cela dit les participants ont pu, dès les premiers jours, utiliser une instance de Sovereign pour prendre leurs décisions. Ils ont reproduit le processus de développement des livrables suivant :

  • Définition du problème ;
  • Test du logiciel existant et feedback ;
  • Définition des livrables ;
  • Vote et délibération ;
  • Répartition des tâches.

Pour ce qui est du thème global choisi, les membres ont assez rapidement exprimé leur désir de traiter du numérique et du futur de la démocratie en les reliant à la thématique de la souveraineté populaire dans le contexte espagnol. Le sujet était d’actualité. En effet, la presse espagnole titrait sur la révélation en novembre dernier d’une vidéo enregistrée en 1995 où Adolfo Suárez, ancien Président du gouvernement espagnol, révélait avoir refusé en 1976 d’organiser un référendum sur la nature monarchique ou républicaine du régime (voir article ci-dessous en espagnol).

Il faut bien comprendre que le sujet reste très sensible en Espagne, où le roi possède toujours un réel pouvoir — il est par exemple le chef des armées. Pour contourner le tabou, l’équipe a choisi de traiter la question sous un aspect moins concret, à travers une narration fictionnelle.

L’idée était de souligner la corrélation suivante : comme ont pu l’être les rois et les reines d’antan, les administrateurs de nos outils de gouvernance numérique sont les souverains des démocraties connectées. Ils disposent d’un droit de regard sur les prises de décision publiques, mais aussi sur les opinions et données personnelles collectées sur leurs plateformes.

Gouvernance digtiale
L’enjeu pour la démocratie de créer des systèmes décentralisés

C’est la raison pour laquelle toute une partie de la communauté internationale de la civic-tech préconise d‘utiliser des plateformes open source, là où la démarche des éditeurs de logiciels propriétaires pose un problème de transparence et de souveraineté. Pour y remédier, il est nécessaire de concevoir un système de gouvernance décentralisé et incorruptible. C’est là que Democracy Earth, le projet successeur de DemocracyOS, entre en jeu. Mais c’est une histoire pour un autre article

À quoi aboutit-on lorsque l’on fait travailler une équipe aussi hétéroclite ? Réponse : une plateforme portée par un message fort : la question du devenir de la souveraineté au-delà des États-nations.

Après plusieurs jours de travail, l’équipe lance la plateforme Kingdom Tale”. Il s’agit d’une expérience en ligne dont l’objectif est de sensibiliser l’opinion sur la question globale de la souveraineté individuelle au XXIe siècle et, à travers une narration fictionnelle, de discuter de la monarchie en Espagne et des autres monarchies modernes en dressant un parallèle entre celles-ci et l’aspect numérique des systèmes politiques contemporains.

Kingdom Tale

Après cette courte introduction, le lecteur est propulsé dans un mini-jeu dans lequel il incarne l’empereur actuel du “Royaume dont je ne veux pas me souvenir”. Tout paraît calme durant les premiers instants. On peut reconnaître différents bâtiments célèbres de Madrid. À l’approche de l’empereur, ses sujets le suivent paisiblement… Mais rapidement, ceux-ci se rebellent et envahissent la Plaza de la Puerta del Sol (le lieu de réunion des Indignados en mai 2011) !

L’expérience interactive

Dès lors, l’axe narratif se dévoile et l’on découvre le contexte dans lequel évoluent les citoyens et le successeur de l’empereur, le “Roi Ier” du “Royaume dont je ne veux pas me souvenir”. Un roi qui a su faire preuve d’un désir d’équité et de justice sociale, mais qui reste l’héritier d’un système fondamentalement injuste dont il ne peut que préserver l’intégrité, malgré sa bonne volonté.

Kingdom Tale
La narration autour de l’expérience

Enfin, le lien final est un appel à la mobilisation intitulé “BecomeSovereign” qui ouvre sur une instance de Democracy Earth permettant aux utilisateurs de voter sur des questions telles que les lois de succession des héritiers royaux ou encore le maintien des pouvoirs décisionnels des monarques.

Le logiciel de débat « Sovereign » de Democracy Earth

L’expérience de Virgile au Medialab Prado s’est avérée plaisante et extrêmement enrichissante. Ce hackathon a non seulement été pour lui l’occasion d’avancer sur le projet Democracy Earth, mais aussi de tisser des liens avec l’écosystème civic-tech espagnol, qui émane directement du mouvement des Indignados et qui a pu mener de nombreuses expériences depuis l’accession au pouvoir de coalitions citoyennes dans les principales villes espagnoles comme Madrid, Barcelone ou La Corogne. C’était également l’occasion de rencontrer une communauté de près d’une centaine d’innovateurs démocratiques du monde entier qui s’attellent tous à des projets incroyables et variés et qui ne transigent pas avec les valeurs autour desquelles ils se retrouvent — notamment le logiciel libre (synonyme de coopération et transparence) et un certain attrait pour les espaces de participation qui engagent la responsabilité des institutions et des décideurs politiques vis-à-vis des citoyens.

Parmi les autres projets, Virgile a été particulièrement impressionné par :

  • Turnometro : Une application de décompte ou de demande du temps de parole lors d’assemblées générales, émanant directement de l’expérience de Wiki Politica au Mexique. Turnometro permet également de recueillir des avis, des ressentis sur chacun des speakers.
  • Red Argos : Outil de rédaction collaborative en temps réel basé sur la technologie jetpad (alternative open source à Google docs), visant à améliorer la participation au processus législatif.
  • Consul + Emapic : Fusion d’Emapic qui permet d’élaborer des sondages géolocalisés et de Consul, l’outil de participation citoyenne créé par la mairie de Madrid. L’idée étant de localiser la provenance des propositions mais aussi de pouvoir quadriller, pour chaque proposition, la répartition des votes par quartier etc.
  • Digidem Guide : Une plateforme qui centralise et redirige vers différents outils de consultation/participation citoyenne en fonction des besoins (OpenSpending pour la transparence des dépenses publiques et privées, Loomio pour l’argumentation et la discussion, Pol.is pour la consultation à large échelle etc.).

Le Medialab Prado est un véritable modèle d’innovation démocratique pour plusieurs raisons :

1. L’accessibilité : le lieu est ouvert à tout citoyen qui veut y mener un projet, et une équipe de médiateurs y est disponible pour l’accompagner.

2. La collaboration avec la mairie : les membres du “ParticipaLab” travaillent à la mairie et mènent les expérimentations au sein du Medialab. Ce genre de partenariat entre société civile et institutions est passionnant car il élargit le champ des parties prenantes dans les démarches de concertation et rend plus facile l’implication des citoyens.

3. L’ouverture sur l’international : tout en traitant des sujets locaux, l’équipe du Medialab parvient à organiser des hackathons avec des participants venus du monde entier et leur garantit un accompagnement par des mentors reconnus, comme Audrey Tang, ministre du numérique de Taiwan.

4. La diversité des thématiques : le Medialab accueille et promeut aussi bien des projets de robotique que des projets artistiques, sociaux ou musicaux…

C’est assurément le modèle qui doit nous inspirer collectivement pour concevoir le futur Civic Hall Parisien.

Equipe Civic hall parisien
Les participants

Article rédigé par Noe Jacomet (@NoeJcm)

Comment nous avons co-construit une Agora permanente à Nanterre ?

Comment nous avons co-construit une Agora permanente à Nanterre ?

Virgile Deville et Alain Buchotte nous racontent la collaboration d’Open Source Politics avec la mairie de Nanterre pour créer la plateforme de consultation de la ville : participez.nanterre.fr.

Comment s’est établi le contact avec la mairie de Nanterre ?

Virgile Deville : À l’époque, mi-2015, nous venions de créer l’association DemocracyOS France et c’est avec Pierre-Louis Rolle que le contact s’est établi. Il était alors coordinateur des projets numériques et citoyens à la Direction de la Vie Citoyenne de Nanterre. Cette direction gère un tiers-lieu municipal, l’Agora, maison des initiatives citoyennes, où l’on trouve un espace public numérique, un espace de conférences/débats/projections, une radio citoyenne et un jardin partagé. Pierre-Louis Rolle, qui participait à un groupe de travail sur le renouvellement de la ville participative et des outils de concertation, a dans un premier temps contacté DemocracyOS, dont les membres l’ont redirigé vers DemocracyOS. C’est comme cela que lui et moi nous sommes rencontrés — pour l’anecdote, nous avons découvert que nous étions presque voisins — et avons commencé à travailler ensemble. C’est de là qu’a émergé l’idée d’une Agora permanente, un “tiers-lieu connecté de l’expression citoyenne”.

Quel était leur besoin ?

V.D. : La commande du maire Patrick Jarry et d’Hassan Hmani, adjoint au maire à la ville participative, consistait à développer un outil numérique de concertation permettant d’élargir le public concerné, de rendre le processus plus inclusif et d’innover dans le domaine. Nanterre a une longue tradition de participation citoyenne. La ville a créé en 1977 les premiers conseils de quartiers et organise des concertations régulièrement. Toutefois, les personnes impliquées sont, comme partout, les mêmes depuis des années et les méthodes traditionnelles peinent à mobiliser les jeunes et les minorités. Nous sommes donc partis de la volonté politique municipale pour créer la plateforme adaptée, plutôt que d’arriver avec un outil tout fait à lui proposer. L’outil se devait d’être open source et de contenir plusieurs logiciels, afin que n’importe quel service de la mairie puisse créer une campagne de concertation en ligne en fonction de sa problématique. À terme, l’objectif est que l’outil soit mobilisable par la société civile.

Alain Buchotte : Au départ, il y avait tout de même l’idée qu’une instance de DemocracyOS serait une bonne base pour amorcer le virage numérique voulu par la mairie de Nanterre. Nous nous sommes vite rendus compte que l’outil standard ne serait pas suffisant, et qu’il devrait être amélioré par des fonctionnalités supplémentaires afin de supporter l’intégralité du contenu associé à la concertation, d’être transparent avec les habitants sur les règles de concertation et les informations sur le projet pour construire des contributions plus riches. Nous avons aussi senti chez Pierre-Louis Rolle une très grande motivation pour intégrer d’autres outils open source qu’il avait découvert à travers sa propre veille dans le domaine.

 

Pouvez-vous nous décrire la phase de construction de la plateforme ?

V.D. : Une fois le projet validé par le bureau municipal, nous avons commencé à travailler conjointement avec la mairie, sachant que le cahier des charges était à préciser. L’aspect incertain du livrable nous a dans un premier temps causé un peu d’inquiétude. Toutefois, l’équipe de l’Agora nous a soumis l’idée d’utiliser la semaine de l’innovation publique en novembre 2015 comme tremplin, en organisant un hackathon sur la ville participative. Nous avons rassemblé plus de 60 personnes, développeurs, élus, agents publics et citoyens sur les thèmes de l’open data, de la cartographie collaborative et de la consultation publique. Des étudiants ont aussi pris part à cet évènement pour participer à la rédaction de 60 pages de notes de compte-rendu contenant les retours des citoyens sur leur vision idéale de la plateforme. Cette étape de design collaboratif nous a permis d’établir un premier cahier des charges. Par la suite, nous avons réuni une équipe projet motrice. Nous avons commencé par imaginer la future concertation du quartier du Parc, un secteur de Nanterre engagé dans un plan de rénovation urbaine de plusieurs millions d’euros. Malgré une telle enveloppe budgétaire, un certain nombre d’éléments du projet restaient à définir et une concertation paraissait judicieuse pour réfléchir avec les citoyens. Il s’agissait donc vraiment d’une campagne de gestion de proximité.

Hackathon sur la ville participative (novembre 2015)

Pouvez-vous nous parler d’un évènement spécifique sur lequel la plateforme a été utilisée ?

V.D. : En janvier 2016, le maire a décidé de lancer la plateforme sur les Assises pour la ville, un événement rassemblant les citoyens de la ville à travers des assemblées, des débats, des réunions en appartements pour échanger sur l’évolution de la ville. C’était la première fois que les Assises avaient un pendant numérique. Le moment était bien choisi car, du fait de l’intégration de la ville dans la métropole, la mairie faisait face à une réduction budgétaire et donc une nécessité de redéfinir le projet de ville. Les élus et les citoyens se sont mobilisés et ont été plutôt convaincus par la démarche, d’autant plus que l’outil numérique a permis de garder trace des échanges durant les Assises, d’une manière inédite. Au final, ce sont plus de 1500 personnes qui ont pu s’approprier la plateforme rien que sur cet évènement, un très bon bêta test donc !

A.B. : Les Assises pour la ville nous ont donné l’opportunité de regarder comment nos outils numériques pouvaient coller au mode de récolte de contributions citoyennes déjà mis en œuvre. Cela nous a aussi obligé à développer des fonctionnalités supplémentaires (le module de contributions collectives notamment). Le processus des Assises nous a apporté un volume de contenu assez important, en termes de contributions. Il nous a permis de faire une utilisation réelle de notre plateforme. Les Assises ont été le moteur du développement du site.

Au niveau opérationnel, comment votre collaboration s’est-elle déroulée ?

V.D. : Nous étions presque incubés à l’Agora de Nanterre, j’y allais très souvent, notamment pendant les premiers mois. Il a fallu collaborer avec les différents services de la mairie et se former à la concertation pour produire un outil qui n’allait pas décevoir les attentes des citoyens. Tout cela a demandé du temps, et malgré des livrables préalables présentés en janvier 2016, on a dû mettre les bouchées doubles pour rendre une plateforme stable au mois de mars, qui était la date limite pour présenter notre première version. La semaine précédant le rendu a été éprouvante, mais nous sommes parvenus à un résultat satisfaisant puisque la ville l’a adopté et l’utilise encore à ce jour.

Virgile, Valentin et Anne-Gaël Chiche, responsable de l’Agora, en réunion à Nanterre — début 2016

A.B. : Pour ma part, j’étais moins présent sur place ; étant en charge de l’aspect technique, du développement, j’ai plus travaillé à distance. Notre mode de fonctionnement était en permanence itératif, nous nous sommes lancés dedans à 150%. D’un point de vue logistique ce n’est pas forcément une bonne chose, mais ce type d’expérience où l’on ne travaille presque que sur un seul projet pendant plusieurs mois reste très formateur.

Comment fonctionnait la première version de la plateforme ? Comment fonctionne la seconde ?

V.D. : La plateforme est composée de plusieurs outils qui permettent des fonctionnalités différentes :

Il est à noter qu’en l’occurrence, la gestion des concertations se fait sous un format de “campagnes”, c’est à dire que les services de la mairie qui mobilisent l’outil rassemblent les différentes consultations au sein d’un même dispositif global. Pour ce qui est de la seconde version, nous avons fait une mise à jour de la base technique, en passant de Drupal 7 à Drupal 8. Cela nous permet d’avoir plus de compatibilité entre les différents projets. La grande nouveauté c’est le module de cartographie collaborative, une fonctionnalité très intéressante car unique sur le marché. D’ailleurs, ce module pourra être testé sur la prochaine campagne de la plateforme : “La fibre pour tous à Nanterre” !

participez.nanterre.fr est la plateforme de consultation de la ville !

A.B. : Je dirais que la première version était un produit minimum viable présentant les fonctionnalités de base. Certaines ambitions initiales, comme la cartographie via Ushahidi n’ont pas pu se faire, faute de temps. Mais c’est une bonne chose au final car un an plus tard, nous sommes tellement montés en compétence (notamment sur Drupal) que le module de cartographie que comptera la seconde version sera construit directement sur la plateforme, plutôt qu’avec un outil supplémentaire.

Que retirez-vous de cette expérience à Nanterre ?

A.B. : Je pense que c’est très rare de pouvoir se lancer de cette manière. Cette expérience nous a permis de nous développer et sans ce projet nous n’aurions peut-être simplement pas pu poursuivre notre aventure. Elle nous a aussi poussé à créer l’entreprise Open Source Politics, qui jusque là n’était qu’un meetup, pour proposer un accompagnement professionnel aux institutions et entreprises engagées dans des concertations et poursuivre par ailleurs des activités bénévoles au sein de l’association DemocracyOS ????????. Nous avons aussi conscience que cette expérience nous a coûté, financièrement, dans le sens où nous ne l’avions pas vendu très cher et que nous y avons passé beaucoup de temps. Cet investissement était nécessaire pour entamer une démarche collaborative entre la mairie et nous. Nous ne pourrions plus suivre une telle méthodologie, mais ce fût tout de même une très grande chance car ce projet a apporté de premiers financements à l’association, qui à ce jour subsiste encore grâce à ces revenus.

Le hackathon “Coder la ville” a lancé notre collaboration de 18 mois avec la mairie de Nanterre !

V.D. : C’était une expérience spéciale parce que la mairie de Nanterre est la première institution à nous avoir fait confiance. Nous y avons appris qu’une concertation est un processus assez complexe, qui nécessite une ingénierie de la concertation spécifique pour déterminer la meilleure façon de problématiser le sujet : comment poser les bonnes questions, quel doit être le degré de l’engagement de la mairie par rapport aux retours des citoyens, quels sont les leviers de mobilisation etc. En plus de cela, la commande était très plaisante : nous n’avons pas construit un outil pour lui trouver un utilisateur mais nous sommes partis d’un besoin spécifique et nous avons créé un outil adapté. Cette expérience m’a aussi donné quelques idées sur les circonstances idéales dans lesquelles travailler : les meilleurs projets sont ceux que l’on peut construire avec un agent public motivé qui pousse le projet en interne. Ils permettent de créer des dispositifs de participation qui sont à la hauteur des attentes des citoyens parce que l’institution est sincère sur ce qu’elle va faire de leurs contributions. Je retiens aussi beaucoup l’aspect collaboratif : nous avons vraiment construit un outil ensemble et, alors que nous n’avions pas du tout le même statut, j’étais très souvent à Nanterre et je me sentais aussi responsabilisé qu’un agent de la ville. Puis il y a eu ce hackathon de la semaine de l’innovation publique, qui a préfiguré ce que nous avons fait par la suite au sein d’Open Democracy Now. Enfin, les Assises de la ville, qui nous ont permis de mettre autour de la table des agents publics du service de l’urbanisme, des développeurs, l’élu, les citoyens… Cette expérience a été un test très précieux pour appréhender les problématiques que l’on doit traiter en tant qu’entreprise de la civic tech.

Open Source Politics est une entreprise qui développe des plateformes de démocratie participative pour des acteurs publics, privés et associatifs. Contactez-nous si vous souhaitez vous engager dans un dispositif de concertationou un budget participatif utilisant des outils civic-tech !

Noe Jacomet (@NoeJcm)

@OpenSourcePol

Retour d’expérience le premier budget participatif de la RIVP

Retour d’expérience le premier budget participatif de la RIVP

Retour d’expérience sur la réussite du premier budget participatif de la RIVP

Une discussion menée par Noe Jacomet avec Fabienne Boutier (RIVP), Samuel Thyrion (Copas) et Valentin Chaput (OSP) pour dresser le bilan de leur collaboration dans le but de créer le premier budget participatif de la Régie Immobilière de la Ville de Paris, en adaptant la plateforme Consul, développée par la ville de Madrid.

D’où vient le projet ?

Valentin Chaput : La mairie de Paris réalise un budget participatif annuel depuis 4 ans. Lors de la troisième édition, ils se sont aperçus qu’il y avait des gens qui habitaient des résidences sociales affiliées à la mairie de Paris par l’intermédiaire de bailleurs, qui avaient des projets qui concernaient les résidences et non des espaces publics. De là est venue l’idée de demander à ces bailleurs sociaux de décliner le budget participatif (Élogie-SIEMP, la RIVP et Paris Habitat). C’est comme cela que la RIVP a décidé de lancer son budget participatif, en faisant appel à des prestataires expérimentés de ce genre de démarches.

Fabienne Boutier : La RIVP est ce qu’on appelle une société d’économie mixte de la ville de Paris, c’est-à-dire que son actionnaire principal est la ville de Paris (à 80%). Il était donc légitime qu’il y ait une volonté de sa part de voir ses bailleurs sociaux suivre sa voie en terme de budget participatif. Il y a cependant un second élément qui a poussé la RIVP à lancer ce projet : l’avis citoyen rédigé en février 2016 à la suite de la conférence de citoyens sur l’amélioration de la qualité de vie en logement social à Paris, et dont la conclusion était que les habitants désiraient plus de concertation et d’écoute.

Samuel Thyrion : En ce qui concerne l’implication de Copas, nous avons remporté un appel d’offre de la RIVP. La ville de Paris ayant lancé son propre budget participatif depuis 2014, il y avait une volonté institutionnelle d’adaptation des bailleurs sociaux à ce type de problématiques. D’autre part, la RIVP proposait déjà un fond de soutien aux initiatives locales. C’était donc une occasion d’expérimenter une autre manière d’échanger avec leurs locataires.

Quels outils de concertation existaient déjà ?

ST : Il existait uniquement des outils d’information. En effet, hormis ce fonds de soutien, il n’y avait pas de plateforme civic tech de concertation, ni d’intervenant de terrain du côté de la RIVP.

FB : Nous avions surtout des outils de communication institutionnelle, principalement par voies d’affichage, mais cela s’arrêtait là. En revanche, nous faisions déjà des prémices de concertation assimilables à une forme de budget participatif sur les résidences où la RIVP engage des travaux de réhabilitation, afin d’essayer de plus associer les locataires et de les concerter dans le cadre de telles opérations. Lors de ce type de projet, nous faisons aussi appel à des entreprises capables de nous fournir une assistance à maîtrise d’ouvrage (AMO) pour animer la concertation, comme l’ont fait Open Source Politics et Copas sur celui-ci.

Atelier de présentation du dispositif et d’émergence des premières idées animé par Samuel Thyrion (Copas) dans le 19e arrondissement de Paris.

En quoi la plateforme numérique complète-t-elle ces outils ?

ST : Ce que demandait la RIVP, c’est que les solutions proposées par Copas comme OSP prennent en charge l’intégralité du processus participatif. La plateforme était un outil permettant d’informer sur la tenue des réunions publiques, de présenter le mode de fonctionnement du budget participatif, de déposer ses idées et projets, de les commenter etc. Dès le départ, le cahier des charges était assez clair sur le fait qu’il allait être nécessaire d’utiliser plusieurs modes de communication.

VC : En ce qui concerne l’implication d’Open Source Politics dans le projet, c’est Copas qui nous a proposé une collaboration pour mettre en place un outil numérique d’accompagnement du budget participatif. Nous travaillions depuis plusieurs mois avec Hugo Barthelemy afin d’adapter Consul, une plateforme civic tech open source développée par la mairie de Madrid. C’était donc pour nous l’opportunité de réaliser la première utilisation de l’outil en dehors du monde hispanophone, et cela a plutôt fonctionné car nous avons pu faire de Consul un outil de centralisation, non seulement pour les idées déposées par les locataires, mais aussi pour informer sur les phases de votes, les réunions etc.

Comment ont été définies les thématiques ?

ST : Nous avions des critères assez simples, basés sur les catégories standard d’un budget participatif, à savoir : cadre de vie, solidarité, lien social et micro-aménagements. Donc lorsque nous étions face à un projet, il suffisait de se demander s’il correspondait à l’une de celles-ci. D’autre part, ce type de démarche a aussi pour but de répondre à des besoins collectifs et non individuels. Les projets devaient aussi être initiés par un locataire ou un groupe de locataires avec le soutien d’une association locale. Enfin, les projets se devaient d’être cohérents par rapport au budget alloué.

FB : Dès le début de la réflexion, nous avions défini deux types de projets qui pourraient relever du budget participatif : les projets de lien social et les projets de petits aménagement (une réhabilitation thermique ou un ravalement de façade sont hors de propos car sur des budgets différents). Nous avons aussi effectué un benchmark auprès d’Élogie-SIEMP, qui avait fait un budget participatif à petite échelle. C’est comme ça que nous avons abouti aux quatre catégories mentionnées par Samuel.

Comment cela s’est-il passé au niveau opérationnel ?

ST : Le projet a suivi un modèle d’organisation assez classique, avec dans un premier temps un comité de pilotage de la RIVP auquel Copas et OSP participaient systématiquement. Chacun de ces rendez-vous correspondait à des étapes-clés de la mise en œuvre du budget participatif, par exemple pour valider le règlement du budget participatif. Nous avons ensuite organisé et animé dix réunions d’informations publiques, au cours desquelles 140 propositions ont été enregistrées sur la plateforme. Ces réunions ont été suivies d’ateliers de co-construction, permettant d’affiner les propositions, puis d’un processus de budgétisation, en lien avec des associations locales et enfin d’une phase de vote du 20 septembre au 2 octobre.

FB : De mon côté, j’ai surtout porté le dispositif d’un point de vue logistique (organisation des réunions avec les habitants, envoi des courriers, gestion des affichages, réservations de salles auprès des partenaires etc.). L’une des premières étapes, par exemple, portait sur des réunions d’informations auprès des gardiens et responsables de résidence. Il y avait beaucoup de travail à faire en interne, pour faire le lien avec les services concernés (communication, DSI, moyens généraux…) et en externe avec Copas et OSP, pour valider les propositions, préparer les réunions etc. Il a aussi fallu contacter des acteurs associatifs locaux pour accompagner certains habitants qui avaient soumis des idées mais ne pouvaient pas nécessairement porter seuls leur projet.

Pour atteindre tous les publics, il était nécessaire de combiner vote en ligne sur la plateforme et vote papier dans des urnes installées dans chaque résidence. Crédit photo : Christophe Demonfaucon — RIVP

Cette expérience est-elle reproductible ?

ST : Oui, à certaines conditions. Nous avons mis en œuvre ce budget participatif dans un calendrier assez serré. Idéalement il faut plus de temps car la logistique est très importante (édition de bulletins de vote, livraisons aux gardiens, urnes etc.) et parfois chronophage ! En ce qui concerne l’organisme ou l’institution à l’origine de la démarche, il faut une très forte disponibilité pour effectuer des validations rapides, car encore une fois, un budget participatif est une démarche complexe qui requiert beaucoup de temps et d’attention.

VC : En théorie oui, mais cela soulève quelques questions : comment atteindre au mieux les publics concernés, parfois peu portés sur le numérique ? Comment pondérer les propositions des locataires ? Quelles normes pour le système de vote ? Pour les bailleurs, comment internaliser une partie plus conséquente de la démarche afin de l’étendre ?

Animation sur site avec la crieuse publique Ségolène Thuillart lors de la phase de vote. Crédit photo : Christophe Demonfaucon — RIVP

Quels sont les enseignements que vous retirez de cette expérience ?

ST : Je pense que le terrain ne s’improvise pas, il requiert des compétences de médiation, d’argumentation, des capacités d’explication, d’adaptation et d’animation. On a parfois dû gérer des locataires mécontents du fait d’autres soucis. Donc il faut pouvoir prendre du recul et faire preuve de pédagogie. Un autre point important est la complémentarité amenée par le fait d’avoir à la fois une plateforme numérique et de faire du présentiel sur le terrain, il faut jouer là-dessus et c’est l’ensemble du dispositif qu’il faut valoriser.

VC : Côté plateforme, nous avons eu la chance de bénéficier d’une aide importante de la part de la communauté madrilène, créatrice de Consul. Ses membres étaient toujours très disponibles pour répondre aux questions de notre équipe technique. Ces échanges leur ont d’ailleurs permis de perfectionner leur outil, car nous avons dû beaucoup tester Consul pour pouvoir l’adapter au contexte local. Au niveau des résultats, nous sommes aussi ravis car ils ont dépassé nos espérances : 14% de participation sur ce premier essai, cela peut paraître modeste mais c’est en fait assez élevé pour ce genre de démarche.

FB : En interne, je pense qu’un projet de ce type doit être porté et affirmé auprès de l’ensemble des salariés comme un projet structurant de l’entreprise.. En ce qui concerne les habitants, ils étaient globalement intéressés par la démarche, mais elle leur était un peu étrangère et ils avaient donc parfois besoin d’un accompagnement fort. D’autre part, certains gardiens de résidence sont restés dans la crainte d’avoir du travail supplémentaire, probablement parce que nous n’avons pas su faire preuve d’assez de pédagogie, faute de temps. À l’heure actuelle, nous rentrons dans la phase de portage de la mise en œuvre des projets. Cela va nous permettre de tirer de nouveaux enseignements.

Quels sont les intérêts, les enjeux d’une telle démarche ?

ST : Un des intérêts de la démarche est qu’elle redonne du crédit à la participation. Le budget participatif est très concret et donne un pouvoir effectif aux locataires. L’enjeu majeur est de mobiliser les gens. L’aspect concret le permet et d’autre part c’est un processus relativement court avec des phases assez claires. Il y a aussi des enjeux internes pour l’organisme porteur. Il faut prendre acte que c’est vraiment un projet transversal. Cela a des incidences dans tous les domaines : dans notre cas les services de communication de la RIVP ont été autant impactés que ceux de la direction des systèmes d’information. Les budgets participatifs sont des dispositifs qui ont vraiment du sens, mais qui nécessitent des compétences variées et une certaine agilité en terme d’organisation.

FB : Pour la RIVP, l’enjeu majeur était de développer de nouveaux modes de communication, d’aller au contact des locataires… Mais il est vrai que cela implique des évolutions en interne pour des structures comme la nôtre, en plus d’une réflexion approfondie sur la meilleure façon de capter ces publics, qui effectivement ne sont pas tous familiers du numérique ni de ce genre de démarches.

Contactez-nous si vous souhaitez vous engager dans un dispositif de concertation utilisant des outils civic-tech !

decidim budget participatif

Découvrez notre

newsletter !

 

Votre nouveau rendez-vous mensuel sur toute l'actualité Decidim en français et bien plus...

 

Félicitation ! vous êtes désormais inscrit à notre newsletter !