Feeds:
Articles
Commentaires

Le vendredi 9 décembre, Libertic était présente au Sommet Mondial du Partenariat pour une Gouvernance Ouverte afin d’y présenter une démarche collaborative d’ouverture de commune. L’occasion de faire un bilan du chemin parcouru, de nos initiatives liées au sujet et d’annoncer un nouveau site international pour les Opérations Libres.

logo-anime-sommet-en-1024x425

L’évènement PGO, Cop21 de la démocratie, a donné à voir les projets à travers le monde qui placent la transparence de l’action publique (dont ouverture de données) et l’implication des habitants et usagers dans l’amélioration des services publics au centre de leur stratégie de modernisation de l’action publique par le numérique.

Que de chemin parcouru depuis 2013, année du sommet PGO à Londres durant lequel nous participions à la délégation française envoyée pour « étudier l’opportunité de rejoindre le mouvement ». Après avoir raté le train de départ, la France rattrape donc son retard en s’investissant sur le sujet, malgré des bémols soulignés par la société civile.

Avec (notamment) la loi pour une République numérique et la généralisation de l’ouverture de données, la France s’arme d’une politique des plus ambitieuses en matière d’extension de l’open data et transparence. Axelle Lemaire a annoncé un budget de 3 millions d’euros pour assurer le service public de la donnée. Il sera notamment alloué à la création d’outils de sécurisation de la diffusion, d’interopérabilité et convergence des données notamment via le sémantique. Un plan qui souhaite clairement dépasser la simple publication massive de données pour orienter une structuration.

Par contre, niveau Gouvernance Ouverte globale, induisant l’implication des habitants et usagers dans la coproduction de services et systèmes décisionnels politiques, les freins culturels sont toujours bien d’actualité parmi les élus. La France est restée coincée sur l’étape 1 du plan global.

Seule la ville de Paris s’est officiellement engagée sur le sujet. Elle en a profité pour annoncer son plan de Gouvernance Ouverte. Ce document synthétique semble être son plan et sinon pour rappel, celui de Nantes co-créé entre habitants dès 2014 avait lui été classé sans suites… Il est disponible ici (PDF) et le processus global est synthetisé sur le site Atelier de la Gouvernance.

MAIS QUE FAISIONS-NOUS AU PGO ?

Nous y présentions avec le département de Loire-Atlantique les retours et recettes des Opérations Libres, dont voici le support. L’occasion d’annoncer le lancement du site international dédié au projet: FREE-MISSION.org pour faciliter la reprise de ce format d’ouverture des petites communes à l’étranger. Vous souhaitez contribuer à le traduire ? Contactez-nous !

screenshot-www-free-mission-org-2016-12-12-18-06-12

Vidéo de Présentation Opération Libre

LIBERTIC PARTICIPE AU PROJET PILOTE D’EXTENSION DE L’OPEN DATA EN FRANCE

Enfin, ce retour sur les Opérations Libres nous permet d’annoncer la participation de Libertic aux territoires pilotes annoncés par Axelle Lemaire sur le sommet PGO. Nous travaillerons sur 2017 en lien avec le département de Loire-Atlantique au prototypage d’ouverture d’une commune locale, avec notamment la création de wiki territorial et ouverture de jeux de données essentiels, avant d’envisager la généralisation au territoire.

communique-territoires-pilotes

Aujourd’hui, lundi 17 octobre, l’association OpendataFrance remettait à Axelle Lemaire, secrétaire d’État chargée du Numérique et de l’Innovation, son « Rapport sur les dispositifs d’accompagnement des collectivités locales à l’ouverture des données publiques ».

Ce rapport, réalisé sur lettre de mission, avait trois objectifs :

  1. fixer un état des lieux de l’open data des collectivités en France

  2. proposer un dispositif de soutien à la mise en œuvre des démarches des collectivités

  3. proposer des démarches d’animations et mutualisation au niveau national.

Nous vous proposons ici un résumé du rapport et nos premières réactions.

 

  1. Etat des lieux de l’open data des collectivités

La loi pour une République numérique représente une étape majeure pour le mouvement open data en France. Toute collectivité de plus de 3 500 habitants étant désormais tenue de publier des données ouvertes, comment organiser concrètement la mise en œuvre de cette obligation et accompagner ce changement d’échelle ?

L’association Opendata France, qui réunit selon ses propos plus de 70 collectivités engagées dans l’ouverture de données (en comptant toutes celles qui ont publié un jeu de données, il y a quelques années puis plus rien) part du constat suivant: une poignée de collectivités pilotes se sont déjà lancées dans le mouvement. 45 % de leurs données sont des données géographiques et cette dynamique de publications est accompagnée d’une évolution dans la gouvernance interne des données, constatée notamment avec la création de postes d’administrateur général de données (AGD).

Les collectivités les plus grosses en termes de population sont celles qui ont le plus avancé sur le sujet des données ouvertes. Les collectivités de tailles moyennes et petites ne se sont pas réellement positionnées sur le sujet qui n’apparaît pas comme une priorité et qui leur est souvent mal connu et incompris. Elles sont également dépossédées de leurs propres données par les EPCI ou les délégataires et ont donc une faible culture du sujet. Un travail de communication s’impose pour expliquer la mise en œuvre, les bénéfices en terme d’accès aux informations de la commune, la réduction des charges et centralisation des informations, etc.

Les limites des démarches :

  • peu de réutilisations des données
  • marché économique local et trop restreint
  • peu d’implication des réutilisateurs de données dans les démarches
  • manque de normalisation et de référentiels pour les données
  • animations trop territorialisées

 

odf-grossesse

2. Quel soutien pour la mise en œuvre des démarches open data des collectivités ?

Face à ce constat, des actions concrètes sont proposées dans le rapport. Il est rappelé en premier lieu que l’organisation du changement d’échelle (et donc le défi) consiste à multiplier les initiatives tout en assurant la qualité et conformité des données avec les lois en vigueurs, notamment en ce qui concerne le respect de la vie privée. L’enjeu est fort sur la normalisation, car si celle-ci s’est à peu près stabilisée autour de deux licences (nous verrons que non), les données elles-mêmes manquent cruellement de standards communs.

Voici quelques propositions du rapport :

  • Coproduction avec les collectivités d’un socle commun de données

Définir conjointement les données essentielles à publier et sur lesquelles bâtir une structuration commune. Une vingtaine de données sont proposées en annexe (page 49), parmi celles-ci : le budget, le PLU, les marchés publics, les délibérés, contours IRIS, résultats d’élection, agenda, etc.

  • Création d’un service public de la donnée locale

Proposition déjà mise en œuvre par Etalab qui propose sur www.data.gouv.fr/ et pour chaque commune de France, une page dédiée agrégeant automatiquement des données locales (INSEE, Finances, etc). L’idée est de centraliser les données existantes pour éviter aux communes de doublonner un travail de publication. Nous nous étions d’ailleurs appuyés sur ce service pour Montreuil-en-Touraine durant la dernière Opération Libre car il permet également de publier manuellement les données supplémentaires des communes.

A noter que l’étude ne conclue pas à la nécessité d’un service d’hébergement imposé par l’État, qui ne serait pas légitime aux yeux des collectivités.

  • Création de l’observatoire d’une évaluation des politiques open data des territoires

Le rôle de cet observatoire serait de suivre, évaluer et répondre au mieux au développement du mouvement open data en France. Mais ces critères d’évaluation restent à préciser.

  • Intégration de modules d’exports dans les progiciels métiers

A l’heure où les éditeurs persistent à emprisonner des données dans les logiciels métiers, un changement de paradigme s’impose. Des partenariats avec des éditeurs spécialisés seraient mis en œuvre pour inclure des modules d’export et portabilité des données des collectivités.

 

3. Les démarches d’animation et mutualisation

  • Création de référentiels pédagogiques mutualisés.

Documentation qui a déjà commencé à être constituée sur http://www.opendatafrance.net/ressources/.

  • Formations théoriques et pratiques

La première formation au logiciel R à destination des collectivités commence justement aujourd’hui.

  • Sensibilisation des élus

(message d’intérêt local) Nous proposons une expérimentation de sensibilisation aux élus sur la personne de M. Bruno Retailleau afin de le motiver à reprendre la dynamique open data de la région Pays de la Loire qu’il préside.

  • Phase d’expérimentations

Afin d’organiser une première étape de prototypage de démarches d’ouverture selon différents échelons de territoires  (communes, métropoles, départements, etc), l’association OpendataFrance propose une phase d’expérimentations avec des territoires pilotes. Celle-ci permettrait notamment d’identifier des modèles d’articulations d’ouverture sur les territoires et guides de bonnes pratiques.

Quelques organisations déjà postulantes pour l’expérimentation : La Région Provence-Alpes-Côtes d’Azur, un groupement de cinq acteurs en Bretagne, la préfecture de région Occitanie, le département de Loire-Atlantique, le Syndicat Mixte Informatique de Charente-Maritime (SOLURIS), liste non-exhaustive.

Deux initiatives de formations sont également proposées :

  • La création d’un certificat de formateur

Décerné par l’État, il s’agirait de quelques jours de formations pour les formateurs souhaitant obtenir ce certificat. Initiative d’intérêt pour ceux qui assurent déjà ou souhaitent assurer des formations Open Data auprès des collectivités, ce certificat assurerait la pertinence, qualité et conformité de leurs formations avec les référentiels nationaux. Libre aux collectivités de choisir ensuite des formateurs certifiés ou non.

  • Une formation d’animateur de la donnée territoriale (ADT)

Inspiré de la création et du rôle des Animateurs Numériques de Territoire dans le secteur du tourisme, l’ADT est chargé de déployer l’open data sur son territoire, il fait office de référent open data local et travaille en réseau.

 

 

Notre avis

L’initiative marque un pas de plus vers l’ouverture par défaut des données des collectivités et nous ne pouvons que féliciter les parties-prenantes de maintenir cette dynamique. Mais pour alimenter de futures réflexions, voici quelques commentaires et questions qui restent en suspens selon nous.

Tout d’abord, le rapport offre une série de propositions des collectivités mais rien ne permet d’affirmer que toutes ces hypothèses seront mises en œuvre. Le rapport a le mérite d’offrir une option réaliste d’ouverture technique généralisée, sauf que sa faisabilité tient sur une ouverture au rabais. Il semble que le plus petit dénominateur commun ait été pris comme modèle de base de prototypage : une commune de 3 501 habitants qui publierait 20 jeux de données statiques dont la moité pré-agrégée par l’État. Mais les modèles d’ouvertures, des agglomérations par exemple, de par la richesse, quantité et complexité de leurs données gagneraient à suivre un modèle plus élaboré.

Bien sûr il y a les phases prévues de prototypages pour répondre à toutes les questions en suspens. Mais il semble que les collectivités partent pour maintenir des démarches d’ouverture selon le triptyque « publication-animation-usages externes » dont le modèle, à l’heure des administrateurs généraux de données et data scientists pour usages internes, semble discutable pour les plus hauts niveaux d’ouverture. Seule une petite phrase mentionne d’ailleurs l’usage interne des données – Eat your own dog food – pour indiquer que cette approche est bien prévue, sans sembler pivot.

(Visionnez à ce propos la table ronde « Pilotage par les données et nouveaux métiers de l’open data » et autres captations du salon Open Data que Libertic co-organisait en septembre)

Le risque de cette généralisation d’ouverture de données a minima est d’entrer dans une simple démarche de publication automatisée, de données dissociées des usages internes, et donc à obsolescence programmée, générant une production de données orphelines en masse. Vous voulez un exemple ? Multipliez désormais par 3 800 communes et EPCI.

Il est regrettable que les sujets de prospectives (bien que d’actualité pour certaines collectivités) aient été écartés du rapport, tel que les scénarios d’ouverture conjointe de données publiques, privées et d’acteurs tiers d’un territoire. Ceux-ci représentent un modèle d’intérêt pour les agglomérations mais ont été considérés comme ne relevant pas du cadre de l’étude car « ils ne concernent que les acteurs les plus matures de l’open data ». Dommage de ne pas avoir profité de cet exercice pour préparer également le futur.

Un autre terme absent du rapport : la gouvernance ouverte. Il est en fait cité une petite fois pour préciser que ce thème sortait lui aussi du cadre de l’étude. À deux mois du sommet mondial que la France présidera à Paris, il n’est toujours pas d’actualité d’aborder l’open data sous l’axe d’une cohérence globale d’actions de modernisation de l’action publique. On regrettera une vision segmentée entre processus technique et organisationnel car sans travail d’acculturation, engager un réel développement autour de l’usage des données risque de s’avérer difficile.

La vision hypersectorisée de l’open data des collectivités induit notamment un problème. Les collectivités peinent à identifier un marché pour leurs données hyperlocales, celui-ci étant trop fragmenté et dissocié des données nationales et informations publiques qui alimentent, elles, les chiffres pharaoniques annoncés dans les bénéfices de l’open data. La dernière étude « Open Data Maturity in Europe 2016 » mentionne ainsi la croissance prévue de 36.9% de la valeur du marché des données publiques ouvertes pour atteindre 75,7 milliards d’euros en Europe pour 2020. Ces chiffres désespèrent les collectivités incapables d’identifier la valeur locale, notamment car elles peinent déjà à quantifier et chiffrer des bénéfices internes qui sont pris en compte dans ces calculs et car elles peinent à identifier leur valeur associée aux marchés nationaux.

Il est également possible de questionner la capacité d’ OpendataFrance à mettre en œuvre cette normalisation annoncée. Cela fait trois ans que l’association travaille à la création de standards, avec relativement peu de résultats à ce jour. Entre parenthèse, l’association n’a toujours pas réussi à normaliser le terme « open data » orthographié « opendata » dans son rapport. Et l’une des seules normalisations effectives autour des deux licences de données ouvertes (LO et OdbL) sera bientôt affaiblie par OpendataFrance elle-même, avec la création d’une nouvelle version OdbL v2 actuellement en travaux. Pour sa décharge, il est vrai que l’association n’avait jusqu’à présent que peu de budgets et travaillait avec des bénévoles.

Mais qu’en est-il du financement de la mise en œuvre justement ? Étrangement, ce rapport ne définit aucune estimation budgétaire. Quel coût ? Quel modèle économique ? Quelle prise en compte des évolutions de financements des régions par exemple? Une prise en charge par les collectivités ? Un financement de l’État ? Si oui, est-il prévu avant les élections présidentielles ?

Enfin, au lieu de propositions concrètes, le rapport énumère de vagues intentions dont la mise en œuvre n’est pas détaillée : mener conjointement l’ouverture avec la CADA et la CNIL (sous quelle forme?), améliorer les données en facilitant les retours de réutilisateurs (quelles actions supplémentaires envisagées?). On aurait aimé des propositions d’actions plus précises. D’ailleurs, lorsque les propositions se détaillent, telle l’intégration de fonctionnalités d’export de données pour les logiciels métiers par exemple, on soupçonne déjà les difficultés cachées. Prenons le cas des fonctions d’exports de données GTFS (normes poussée par Google pour les transports publics), l’export est maintenant présent dans de nombreux logiciels-métiers mais souvent encore la donnée est inutilisable car l’intégrité des données n’a pas été vérifiée.

En conclusion, un rapport positif qui apporte des éléments pour développer l’ouverture par défaut mais encore beaucoup de questions et de travail sur la route.

Note des auteurs : Libertic est une association à but non-lucratif implantée en Pays de la Loire et a accompagné la région dans son étude de création d’un Datalab. Libertic est également membre associé d’OpendataFrance, association créée suite à l‘initative de rencontre des collectivités en 2012. Enfin Libertic a été consulté pour la rédaction de ce rapport.

Face à la pénurie de carburant sur plusieurs départements de France, un constat : la difficulté à trouver des informations fiables concernant les stations-service sur le territoire et leur disponibilité en carburant.

Comparatif

Les informations existantes ne suffisent pas

Les GPS proposent à leurs usagers des stations-service proches, et des cartographies de stations ont déjà été publiées. Or, ces informations se basent essentiellement sur des bases de données incomplètes.

Les 3 principaux référents en ligne sur l’état de la pénurie sont actuellement

Ces derniers répertorient 10 245 stations pour la France (chiffre fluctuant). Selon Le Monde, l’UFIP en dénombre 11 269, quand la base ouverte de référence en comptabilise 12 097 et il en manque encore. Pour ce qui est de l’état des stocks de carburant aux stations, le site prix-carburants.gouv.fr ne publie cette information qu’avec 7 jours de carence. Aucune initiative ne redistribue librement les contributions des conducteurs. Cette approche logiquement concurrentielle ne permet pas les enrichissements de l’information qui permettraient d’avoir une vision globale de la situation.

Les voitures ne circulent pas, l’information non plus.

L’association Libertic, qui fait la promotion du libre accès à l’information publique en open data a donc cherché à libérer les données aujourd’hui accessibles sur les stations-service. L’objectif étant de permettre à chacun de s’en emparer, de créer des cartes plus exhaustives et d’en favoriser la diffusion. Ces données permettront également de réaliser des sites collaboratifs qui remettraient librement à disposition les contributions sur la pénurie.

Voici les étapes, contrariétés, et découvertes de ce projet #Hackpenurie en cours.

 

Etape 1. Trouver des données

Nous avons d’abord listé les sources potentielles de données géolocalisant les stations afin de pouvoir les compiler. Jusque récemment, la publication d’une base de données d’entreprises sur un territoire était susceptible d’enfreindre le cadre du secret commercial, notamment au pretexte qu’une cartographie des acteurs permettrait de définir la stratégie de leur implantation (faites-vous plaisir). Or, depuis la loi Macron de 2015, un paradoxe se met en place: le secret des affaires (interprétation libre) en même temps que l’open data et la publication du registre Infogreffe, comportant le nom des entreprises et leurs adresses ont vocation à être librement disponibles. Voici quelques sources que nous avons répertoriées, n’hésitez pas à nous en indiquer d’autres !

Prix-carburants.gouv.fr

Cette base nationale collecte les informations et tarifs affichés aux stations-service. 12 097  stations sont répertoriées.

Problèmes

  • Erreurs dans la base: La base n’est pas propre. Des stations-apparaissent en Autriche, Somalie ou dans l’océan. Les longitudes et latitudes sont parfois inversées. Certaines donnéent semblent des doublons.

SomalieLa localisation de stations-service en France, selon la source officielle prix-carburants.gouv.fr qui commercialise la base par ailleurs…

  • Manque d’informations: Des informations ont été tronquées dans la version libre des données : il n’y a pas le nom de la station ni la marque, pénalisant le recoupement. Des incertitudes également sur le numéro identifiant des pompes.
  • Données à -7 jours: Le site ne publie librement que la base de la semaine passée. Or, si nous avions eu les prix du jour-même, nous aurions en même temps l’information sur les pompes n’ayant plus de carburant. L’accès à cette information coûte près de 40 000€. Tant pis pour la disponibilité aux pompes.
  • La base n’est pas exhaustive: Seules les stations avec un débit supérieur à 500m3 annuel sont répertoriées. Ce qui explique que les petites stations-services sont absentes de la base.

20160525_092036(1)Station orpheline. La petite station de Maisdon-sur-Sèvre n’est référencée nulle part (en même temps, elle est en pénurie de carburant…)

Infogreffe

Infogreffe dispose d’un site open data listant les entreprises immatriculées par année. Idéal pour améliorer la base source ? Fausse bonne idée.

Problèmes

  • Manque d’archives: Seules les entreprises immatriculées depuis 2013 sont répertoriées.

  • Catégorisation limitante: Impossible pour nous de retrouver les stations-services dans la catégorisation.

Nous avons abandonné cette source. En espérant que la publication du registre prévue en 2017 puisse prochainement combler ces lacunes.

Openstreetmap

OSM est une base de données cartographique contributive offrant des données totalement libres. Près de 10 000 stations-services ont déjà été répertoriées par les contributeurs. Grâce à Christian, les bénévoles en ligne et nos volontaires, nous nous sommes appuyés sur Openstreetmap.

tagfuel

Problèmes

  • Manque de données: Si la couverture au national reste impressionnante pour un travail de contribution, sur les 243 stations annoncées par la préfecture en Loire-Atlantique, 166 sont répertoriées.

  • Pas d’identifiants: Les données renseignées fournissent parfois le nom de la station, ou les numéros de téléphone mais pas d’identifiant unique permettant de recouper avec Prix-carburants. Il faudra se baser sur les coordonnées.

 

Stations GPL

Source découverte via Openstreetmap, le site http://stations.gpl.online.fr propose une base de données téléchargeable sur les stations distribuant du GPL. Ce sont des coordonnées GPS à convertir.

Problèmes

  • Qualité et Mise à jour: Le site ne semble plus à jour depuis 2011 et des erreurs sont constatées. Nous abandonnons cette source; qui a tout de même servi à quelques recoupements.

BP Suisse

Nous avons commencé à chercher des données sur les sites officiels des distributeurs. Surprise, BP en Suisse propose une base de données « librement accessible ». Cette source est très riche et répertorie à elle seule près de 12 000 stations en France en comptant toutes ses marques. D’autres sites de distributeurs restent à explorer à ce jour.

Problème

  • Licence

La licence d’utilisation associée au service permettant de télécharger les données indique qu’elles sont « librement accessibles ». Est-ce qu’en suisse cela veut dire « réutilisable » ? Il sera toujours possible d’utiliser cette source pour recouper des informations.

Etape 2. Créer des données

Nous avons ensuite cherché quelques informations existantes qui pouvaient être converties en bases de données ouvertes. Ce qui donne :

  • Liste des carburants (source : prix-carburants.gouv.fr)
  • Liste des arrếtés préfectoraux liés à la pénurie (source : Ouest-France, préfectures)
  • Liste des distributeurs de carburant (source : Wikipedia)
  • Compilation des bases (source : prix-carburants/OSM/BP Suisse)
  • Création des correctifs des données africo-norvegiennes

Etape 3. Corriger, compiler et visualiser

La base de prix-carburants a été corrigée via BANO (base publiée ici) . Un exemple d’erreur ci-bas, avec le correctif en rouge intitulé « source gouv bano ».

visuel correctif

Et voici la carte listant et comparant différentes sources de données (OSM/BP/Prix-carburants/Correctif Bano). Cliquer dessus pour naviguer au national.

Global comparatif

La carte de Nantes Métropole

Nous compilons ensuite les données collectées pour faire un test petite échelle, sur la métropole de Nantes.

Carte NM

Nous réalisons parallèlement le 23 mai une campagne de phoning pour vérifier la qualité des données et disponibilité des stations. Des adresses sont corrigées ou supprimées (base locale corrigée à publier prochainement).

Sur 27 stations (sic) affichées sur le listing pages jaunes indiquant les numéros de téléphone, 2/27 n’étaient pas des stations-services. 21 sur les 25 restantes (84%) ont répondu à nos appels. 18/21 sont en pénurie, 1/21 a encore du GPL, 2/21 ont encore deux carburants.

Réaliser ce travail de recoupement à l’échelle du département nous permettrait de vérifier si les chiffres de la préfecture prennent ou non en compte les quelques 3 000 stations-services indépendantes (source FF3C) qui ont probablement un faible débit et ne sont pas répertoriées sur prix-carburants.gouv.fr. A partir de là, est-ce qu’en comptant les stations au débit inférieur à 500m3 annuel le taux de pénurie serait plus élevé que celui annoncé ?

Etape 4: Publication et enrichissement

Nous avons publié librement tous les jeux de données sur data.gouv.fr Chacun peut s’en emparer, les enrichir, et réaliser ses compilations sur son territoire ou au national. La correction du fichier prix-carburants.gouv.fr est également reversée.

Les axes d’améliorations identifiés

En d’autres termes : ce qui nous aurait facilité la tâche.

  • Publier les données quotidiennes exhaustives et corrigées de prix-carburants.gouv.fr
  • Que chaque distributeur publie la liste de ses stations
  • Avoir des identifiants uniques de stations accessibles dans les données
  • Avoir accès à l’enregistrement des stations-services sur Infogreffe avec un historique large
  • Envisager des campagnes cartographiques OSM sur ces données d’intérêt général pour améliorer la base ?
  • Bonus : Pouvoir réutiliser librement les logos des distributeurs pour l’interface usager des plateformes de contribution

Nous étrennons une nouvelle rubrique: Réponse au courrier de lecteurs

Cette semaine nous avons demandé des données ouvertes à la préfecture de Loire-Atlantique, qui n’a pas répondu à ce jour. Suite à cet appel en ligne, un journaliste nous a interpellé très aimablement précisant qu’il ne voyait pas l’intérêt de notre démarche – de recoupement d’informations et qualification des données – (ça laisse songeur).

Alors clairement à quoi sert cette initiative ?

  • À pointer que les efforts d’ouverture de données en France sont aujourd’hui trop faibles
  • À contribuer à l’amélioration de la qualité des données fournies
  • À fournir des données – aux medias notamment – pour qu’ils puissent travailler sur d’autres bases que des copiés-collés de communiqués de préfectures.
  • À favoriser les initiatives de réutilisation de ces données
  • À démontrer l’intérêt des données ouvertes comme levier de meilleure diffusion de l’information

 

 

Ferris_wheel_shame_by_Patrick-M_ccbyncsa_viaflickr

Ferris wheel shame, by Patrick M – cc-by-nc-sa via Flickr

La France et ses acteurs ont souvent été rares dans les événements internationaux dédiés à l’open data. A croire que nous ne savons pas vendre les projets locaux – qui ne manquent pas – sur les affiches des conférences internationales ou sur des événements tels les Open Data Awards, aucun lauréat français. Ce qui peut porter à confusion, avec des messages comme :

 

Et pourtant non, le mouvement est toujours bien en marche et de nettes avancées sont à noter. De nombreuses initiatives seraient même à faire valoir sur les prochaines actualités, pour peu que l’on se mobilise.

 

Quelques preuves du dynamisme de l’open data en France

Deux opportunités

  1. La présidence de la France à l’Open Government Partnership pour 2016 serait une première occasion de mettre ces actions en avant. Pour peu que l’on ne reste pas sur de l’affichage.
  2. La rencontre mondiale des acteurs de l’open data en Octobre à Madrid constitue une seconde opportunité de valorisation. Pour l’instant, aucun acteur français n’y a déposé de dossier d’inscription. Un appel à projets est pourtant ouvert et facile d’accès.

 

Appel à actions

Vous avez un projet autour des données ouvertes, prenez 2 minutes pour le proposer à Madrid !
Vous avez d’autres suggestions de projets open data français à valoriser ? Postez votre liste en commentaire:)

Aef opl logo

Et de 3 ! Les 26 et 27 septembre aura lieu la 3eme édition de l’Opération Libre à Chéméré.

 Cette initiative portée par le département de Loire-Atlantique et la commune de Chéméré (2 400 habitants) ainsi qu’une dizaine d’organisations du libre propose aux habitants des activités ludiques et numériques le temps d’un week-end. L’objectif : libérer ensemble les informations et outils de la commune pour démontrer le potentiel du libre et de l’ouverture grâce aux animations thématiques de différentes communautés. Une façon pragmatique d’engager une démarche d’ouverture dans une commune en lien avec ses habitants.

Logos total OPLUne démarche conviviale qui permettra de valoriser et mieux connaître la commune de Chéméré en collectant et partageant tous types d’informations sur elle : son histoire, son patrimoine, sa géographie, sa faune, sa flore, ses services à la population, son activité économique, ses finances, ses projets etc.

Ces données seront ensuite diffusées sur Internet pour une consultation et réutilisation libre par tout un chacun. Cet évènement facilitera les échanges, développera les connaissances sur la commune, produira de nouvelles données, informations et contenus libres permettant leur réappropriation et l’initiation à de nouvelles pratiques numériques à travers une série d’ateliers :

  • Histoire : Rédaction d’articles en lien avec la commune sur Wikipedia, numérisation collective des archives, ateliers d’écriture pour les enfants sur Vikidia, traduction d’articles, visite guidée de l’église et rédaction d’article associé…
  • Géographie : Création d’une cartographie libre de la commune sur Openstreetmap, réalisation de vues 3D de Chéméré, création de cartes design thématiques à intégrer sur le site de la commune, création d’un streetview avec Mapillary, création de plan du bourg sur Maposmatic, cartographie de l’évolution des parcelles viticoles de Chéméré…
  • Faune et Flore : Collecte d’échantillons de la flore et faune locale, constitution de leur base de données sur Tela Botanica
  • Photographie : Sorties photos pour apprendre à maîtriser son appareil puis alimenter la banque multimedia de Commons, Avant/Après des images de la commune, session prise de photos dans l’église…
  • Informatique : Survol d’un drône, Installation de Linux sur les ordinateurs, mise en place d’un pont wifi autonome depuis Pornic, stand libre, création d’un répertoire d’usage des logiciels libres au sein de la commune de Chéméré, création d’une platfeforme participative Ushahidi pour la commune et ses habitants
  • Citoyenneté : Publication de données ouvertes de la commune et éditorialisation, analyse des compte-rendus des conseils municipaux…

Vous souhaitez participer à ce moment libre et festif ? L’occasion de découvrir de nouveaux projets, promouvoir le libre, pratiquer et mettre des visages sur des pseudos ! Inscription libre mais nécessaire pour prévoir hébergement et restauration en cliquant sur ce bouton.

inscription

Découvrez la liste des activités et proposez de nouveaux ateliers ! (imprimantes 3D ? musique libre ? etc)

Pour un aperçu de retour d’expérience de la première Opération Libre, vous pouvez télécharger le document ci-bas.
Guide d'ouverture une petite commune

Après quatre ans de démarches d’ouverture de données publiques en France, le contraste ne cesse de croître entre les initiatives éphémères relevant de la pure communication et les initiatives visant à contribuer activement à la modernisation des services publics. Cependant même les initiatives plus pérennes ne sont pas signe d’ambition réelle d’ouverture et quelques critères clés le démontrent.

L’accès aux informations publiques reste laborieux malgré l’open data

L’ouverture des données n’a pas résolu les problèmes d’accès aux informations publiques. La synthèse de la concertation du Conseil National du Numérique sur l’open data note les difficultés persistantes d’accès. Pour confirmer, après plusieurs demandes sans résultat, l’association Libertic vient de déposer un recours auprès de la Commission d’Accès aux Documents Administratifs concernant l’accès aux listes des jeux de données publiques de Nantes Métropole et du département de Loire-Atlantique, preuve que même sur les territoires Open Data l’ouverture n’est pas toujours la priorité.

Même si le projet de loi sur le numérique pourrait bientôt intégrer l’ouverture des données publiques par défaut, il paraît évident que le véhicule juridique seul ne pourra suffire à imposer l’accessibilité des informations publiques dont les freins sont en premier lieu culturels. Mais des actions peuvent déjà être mises en place pour développer l’accessibilité, pour peu que l’on veuille réellement s’en donner les moyens.

Cinq actions pour de vraies politiques d’ouverture

Voici une proposition de cinq actions concrètes applicables pour favoriser l’ouverture. Leur application ou non sur un territoire permet d’évaluer le niveau de volonté d’ouverture des informations publiques. Les mettre en oeuvre signifie également s’assurer d’avoir donné aux gestionnaires de projets open data les moyens nécessaires à leur action de centralisation et libération des données.

Le desespoir du chef de projet open data. Image adaptée de Vanmattug par Sara Bjork sous licence Creative Commons cc-by-nc-sa https://www.flickr.com/photos/aegishjalmur/2288932018/

Le désespoir du chef de projet open data.
Image adaptée de Vanmattug par Sara Bjork cc-by-nc-sa

1. Déclaration d’engagement d’ouverture de toutes les informations publiques par défaut

Cet engagement fait partie des recommandations du rapport Trojette sur les exceptions au principe de gratuité. Il s’agit d’affirmer et publiciser la décision de publication systématique des informations publiques afin de les rendre accessibles à tous en ligne, dans le respect de la vie privée et autres mentions légales en cours.

Cette action marque le premier jalon d’un changement de culture d’une organisation, de l’ouverture par exception à l’ouverture par défaut. Sans cette affirmation d’ouverture par défaut et justification des cas d’exclusion à la diffusion, chaque demande d’accès devra subir le traitement laborieux d’une validation interne avec un risque de fin de non-recevoir.

A noter que cantonner le droit d’accès aux informations publiques et l’ouverture aux seules bases de données statistiques est une vaste hypocrisie. Les contenus, photographies, études et textes sont des informations publiques qui devraient être librement réutilisables selon les mêmes principes.

2. Changement des clauses des marchés publics et subventions

Depuis le 17 avril 2014, les marchés publics de la Ville de Paris sont assortis d’une clause demandant au fournisseur répondant à l’appel d’offres de « libérer les données » produites dans le cadre de l’exécution d’un marché. Les démarches ou tentatives d’ouvertures ont en effet mis en lumière le dépouillement des acteurs publics de leurs propres données par la délégation et sous-traitance de missions. Les données créées par des associations ou entreprises dans le cadre d’une mission de service public n’étaient pas rendues publiques. Il suffit pourtant d’ inclure dans les contrats une clause de réutilisation des données pour garantir leur accessibilité. Sans cette clause, des données essentielles restent exclues du domaine de l’ouverture et du libre accès aux informations publiques. Et cela avec le consentement explicite des donneurs d’ordre qui se déchargent en répondant aujourd’hui : « Nous ne pouvons pas publier ces données que nous avons en interne, nous n’avons pas les droits dessus. » Les droits, cela se négocie.

3. Intégrer l’ouverture dans l’évaluation des agents

De nombreux services et agents publics freinent encore l’accès à « leurs » données publiques, et ce malgré des politiques volontaristes en la matière. Par peur de publication de données erronées (ce n’est pas grave d’utiliser des données erronées, c’est grave de les publier), par manque de fiabilité et mise à jour des données, par peur de perte de pouvoir sur un objet d’auto-promotion en interne… De nombreux chantiers de formation à l’ouverture restent à mener en interne des organisations pour rendre compréhensibles les enjeux et opportunités de l’ouverture. Intégrer également un critère d’évaluation des agents sur leur capacité à partager des données et publier leurs ressources est une façon de faciliter ce changement de culture interne. Un critère « open data » dans l’évaluation annuelle permettrait également de créer une motivation des services à la mise à jour des données publiées. Car parmi les critères de qualité des démarches open data, les fréquences de mises à jour des jeux publiés arrivent en tête de liste. Or l’absence d’incitatifs à la mise à jour provoque aujourd’hui l’émergence de cimetières de données orphelines en ligne et l’impuissance des responsables des projets open data face à des collègues peu motivés pour mettre à jour le bases, support de leur travail. Intégrer l’ouverture des données comme critère d’évaluation et promotion au sein des organisations est pourtant l’une des méthodes envisageables pour développer des incitatifs positifs.

4. Publication des listes des jeux de données

Le droit d’accès aux informations publiques suppose que chacun ait connaissance des informations existantes afin de pouvoir en demander l’accessibilité. Or il est très difficile de déterminer qui possède quel jeu de données, et donc d’en faire la demande. Voilà pourquoi publier la liste de tous les jeux de données gérés par les collectivités devrait être obligatoire. Aujourd’hui, chaque collectivité est seulement tenue légalement de créer et tenir à jour ce répertoire. Pour libérer ces jeux de données, à chacun d’en faire la demande ! Et pour faire cette demande, publier sur les sites open data le guide d’accès aux documents administratifs est essentiel.

Suite à notre requête auprès de la région Pays de la Loire, nous avons ainsi reçu par email le jeu suivant précisant l’état d’ouverture des données publiques (ouvert, en cours d’ouverture, non-ouvrable). La raison évoquée pour la mise à disposition par email mais sans publication sur la plateforme officielle de la collectivité a été la difficulté de mise à jour du jeu qui deviendrait vite obsolète.

5. S’ouvrir aux contributions

Permettre les contributions, les mises à jour de données, les retours est un moyen d’assurer l’amélioration continue par l’interaction avec les réutilisateurs de données. Se cantonner à la seule diffusion de données revient à se priver des potentiels d’amélioration de la qualité des jeux. Des solutions techniques de versioning existent pourtant pour traiter la mise à jour collective. Ces pratiques sont d’autant plus pertinentes pour les jeux de données qui évoluent rapidement : agendas, annuaires d’acteurs, pour lesquels chacun gagnerait à partager les mises à jour.

Faciliter les retours et contributions est donc un signe d’ouverture ultime qui permet d’entamer les étapes suivantes d’une gouvernance ouverte à savoir s’engager dans la participation et coproduction et entamer ainsi une réelle modernisation des services publics plutôt qu’une simple action de com’.

5 etoiles evaluation politique open data

En conclusion

Cette liste des actions pouvant déterminer l’ambition réelle d’ouverture à travers un projet open data est partielle et la hiérarchie des niveaux est aléatoire. Mais l’objectif est avant tout de démontrer que des leviers d’actions sont possibles pour développer les cultures et pratiques de publication pour peu que l’on se donne les moyens d’une réelle politique d’ouverture. Une évaluation de l’ambition d’ouverture de votre territoire est donc déjà réalisable à partir de ces cinq premiers critères, sur le modèle des cinq étoiles de la qualité d’ouverture des données. Les marges de progrès sont d’autant plus grandes qu’aucun territoire ne semble avoir développé toutes ces pratiques. Et selon vous, votre collectivité, elle obtient combien d’étoiles ?

Cela fait plus de cinq ans que Tim O’Reilly a publié son pamphlet Open Government.sur le Gouvernement Plateforme. Depuis, nous avons vu l’ouverture des données publiques gagner en popularité et intégrer les mœurs. L’Etat comme des collectivités locales à travers la France ont développé des plateformes d’accès aux données publiques. Ils ont posé avec succès les bases d’un nouveau type d’administration ouverte qui ouvre ses interfaces et mobilise un écosystème de réutilisateurs. Cependant, il semble que ces nouvelles pratiques se soient arrêtées en plein milieu de ce chemin vers un gouvernement ouvert, un gouvernement plateforme.

Il est encore difficile d’intégrer les données publiques ouvertes dans des services commerciaux tant la qualité et mise à jour des données laissent à désirer. La diversité de structuration et formats des données que l’on retrouve sur une même plateforme est préjudiciable à l’usage et certaines données sont carrément inutilisables. Notamment celles qui n’ont pas été mises à jour depuis leur première publication et qui sont désormais obsolètes. Lorsque la documentation existe, elle est souvent partielle ou incompréhensible.

 

Il est difficile de mesurer l’impact d’une démarche d’ouverture mais nous pouvons dire sans hésiter que le nombre de personnes qui a pu bénéficier des données ouvertes est bien moins conséquent que ce que nous étions en droit d’attendre. Bien sûr nous pouvons applaudir les avancées, sur le nombre de jeux publiés et sur l’accès (partiel) à des données fermées jusque là tel que le prix des carburants ou les informations nutritionnelles, bien. Cependant, si nous voulons avancer au-delà du seul processus de la publication pour le nombre, il convient de se concentrer sur la qualité des données plutôt que la quantité.

Le vrai dilemme derrière ce problème de qualité des données, c’est que les personnes qui ont le pouvoir pour les améliorer ne sont pas incitées à le faire. Les agents de l’administration, qui font un travail considérable bien souvent en sous effectif et avec peu de moyens, sont pour beaucoup convaincus des bienfaits de la transparence et et de l’accès à leurs données. Mais aujourd’hui l’open data représente une charge supplémentaire plutôt qu’une solution à leurs problèmes quotidiens. Lorsque les données deviennent obsolètes ou doivent être corrigées, quelqu’un doit prendre le temps de les corriger ou mettre à jour sur le circuit additionnel des données ouvertes. La vraie clé est de développer les incitations et faire en sorte que les plateformes open data soient les solutions internes. Ce qu’il manque aux administrations c’est de manger leurs propres données sur le modèle : Eat your own dogfood !

Dog Food 2

Le dogfooding (aussi appelé Eating your own dog food en anglais), traduit littéralement par « manger sa propre nourriture pour chien », est une expression désignant l’utilisation de ses propres produits et services afin de se confronter directement à ses qualités et défauts.

Source: Wikipédia

Le dogfooding est un terme d’argot utilisé par les ingénieurs d’une entreprise qui utilisent leur propre produit ou accèdent à leurs données par leurs propres API publiques. Le dogfooding permet ainsi aux agents d’aborder leurs données sous la même perspective que les utilisateurs externes. Il fournit surtout une incitation à rendre le service hautement fonctionnel.

Manger ses propres données, sur le modèle dogfooding, est la règle d’or de plateformes qui se développent par un écosystème. Or actuellement les plateformes open data françaises violent de manière flagrante cette règle essentielle. Combien d’administrations publiques utilisent uniquement leurs plateformes open data pour accéder et partager leurs données ouvertes (hors SIG) ?

Sur Nantes, après le gros travail d‘intégration des noms des rues sur OSM, les contributeurs d’Openstreetmap ont fourni à la métropole la liste des erreurs constatées sur le terrain et les corrections du jeu de données publiques. La réponse des agents a été que leur base était bien à jour en interne, seul le jeu en open data n’était pas correcte. La base publique a été mise à jour plusieurs mois plus tard.

Le rapport Deloitte sur le bilan du projet open data du département de Loire-Atlantique pointe d’ailleurs la dissociation que font les agents entre leurs jeux de données internes, fruit de leur travail et maintenu à jour, et les jeux publiés en open data qui passent par des « moulinettes » de formatage détériorant la qualité de certains jeux. Les données ouvertes sont des données orphelines.

Les acteurs internes n’utilisent actuellement pas la plateforme open data pour accéder à leurs propres données ou aux données d’autres services. Ils n’expriment pas de besoin particulier d’ accéder à d’autres données que celles dont ils disposent dans leurs outils actuels. Il est à noter que la plateforme open data n’a pas la vocation de devenir un outil d’échange entre les services .

Département de Loire-Atlantique, Open Data 44 Evaluation de la démarche Open Data (Deloitte, juin 2014)

Le résultat de tout cela, c’est que le public ne bénéficie pas des données correctes, améliorées et mises à jour. En outre, si les données qualifiées sont déjà échangées entre services, c’est qu’elles ont une valeur d’usage qui peut profiter aux acteurs externes or ce sont celles-là précisément qui ne sont pas ouvertes ! Ce sont ces données qui doivent être libérées en priorité et les plateformes open data ne devraient plus représenter que le seul outil possible pour le partage des données inter-services. Tant que les portails open data ne feront pas partie du process de flux des données internes, ils ne pourront pas être fonctionnels et il ne faudra pas attendre que des entreprises misent leur développement sur des projets fantômes.

Tim O’Reilly aime présenter l’exemple d’Amazon comme modèle pour le concept de gouvernement plateforme. Comment l’accès à ses données et ses API a permis le développement d’un écosystème de valorisateurs de ses services. C’est un modèle efficace mais Amazon n’a pas démarré son développement sur un modèle de plateforme, Amazon est devenu une plateforme sur décision de la direction, une fois que l’entreprise était déjà bien établie. La direction a pris les mesures suivantes :

  1. Toutes les équipes vont désormais exposer leurs données en ligne grâce à des interfaces de service.
  2. Les équipes doivent communiquer entre-elles à travers ces interfaces.
  3. Il n’y aura pas d’autre forme de communication permise entre services : pas de lien directe, pas d’arrière-portes. La seule communication autorisée est celle via des appels API.
  4. Toutes les interfaces de services, sans exception, doivent être conçues dès le départ pour être externalisables. Les équipes doivent concevoir les outils pour être en mesure d’exposer leur travail. Pas d’exception.
  5. Toute personne qui ne suit pas ces recommandations sera congédiée.
  6. Je vous remercie; bonne journée!

Cet article explique les transformations lentes et douloureuses pour évoluer d’une société de produit vers une société de service. Mais cette transformation a créé une structure de renom international adaptée au contexte numérique. Si l’on veut continuer à voir les administrations françaises évoluer vers l’adaptation au contexte numérique, il va falloir qu’elles commencent à traiter les acteurs extérieurs comme les agents publics, avec le même souci d’efficacité, d’exigence qualitative et les mêmes interfaces.

Attention, il ne s’agit pas ici de considérer que les administrations publiques doivent devenir des Amazon. Il s’agit de profiter d’expériences réussies de transition vers l’ère numérique et de méthodes, ici le dogfooding, pour les adapter au contexte public. Pour être plus efficace avec autant voire moins de moyens, le service public doit pouvoir s’appuyer sur des ressources externes et développer un écosystème sur le modèle des plateformes. Mais comment attendre d’acteurs externes qu’ils se branchent sur un circuit que les agents internes ne veulent même pas exploiter ? Si les organismes publics veulent pouvoir profiter d’écosystèmes de valorisation de leurs données, il va falloir commencer par consommer leurs propres données et donc considérer les plateformes open data comme le seul outil de circulation des flux, internes comme externes.

Puisqu’il s’agit de profiter de l’ouverture des données comme levier de modernisation de l’action publique, assurons nous d’utiliser tous les mêmes outils et de développer les incitations d’accès aux données hautement qualifiées dont nous avons besoin. Il est temps désormais de manger ses propres données.

 

 

Medio asomado

 

Quelques suggestions pour un pilote de Dogfood public

  1. Identifier les données les plus partagées entre services internes et organisations partenaires. Certaines sont probablement échangées par email, sous forme de bases de données ou parfois API sophistiqués. La méthode d’échange importe peu.
  2. Avec une équipe transversale d’agents mais également d’acteurs extérieurs réutilisateurs de données, prioriser les données pour l’ouverture.
  3. Travailler avec les agents pour créer les interfaces nécessaires à l’accès aux données. L’interface doit être conçue de manière à pouvoir être rendue publique.
  4. Lorsque les interfaces sont créées, annoncer que tous les échanges de données ne se feront plus que par ce biais.
  5. Garantissez l’accès ouvert à l’interface et à sa documentation

 

 Ce billet est une libre adaptation au contexte français de l’article « Hey Uncle Sam, Eat Your Own Dogfood! » publié par Anthea Watson Strong, avec l’aimable et souriante autorisation de son auteure.

 

 

Le développement d’une chaîne de valeur autour de la réutilisation des données et l’ouverture des données publiques est un axe majeur de la politique numérique de la Commission Européenne. Elle a ainsi engagé une révision de la directive sur la réutilisation des données publiques ou encore facilité l’accès à ses propres données.

Pourtant en avril 2014, l’italien Alberto Cottica interpellait la Commission et regrettait sur son blog qu’il n’y ait pas de communauté open data constituée au niveau européen. Les acteurs ne se connaissent pas, ne connaissent pas les solutions en présence, ils travaillent de manière isolée et développent des standards locaux et des projets redondants.

Le décloisonnement des actions par l’échange d’expériences, du type Erasmus, ne permettrait-il pas de développer des projets moins coûteux, plus efficaces et de partager les bonnes pratiques de manière plus fluide ? Des actions peuvent être menées au niveau européen pour peu que volonté et vision coïncident.

Début septembre, nous avons profité de la Nantes Digital Week pour prendre la proposition au mot et réunir des activistes européens pour coproduire une série de proposition concrètes visant à dynamiser une communauté européenne.

team

Les productions d’Erasmus Open Data

Organisé par Libertic avec Atlantic2, Epsiplatform et Spaghetti Open Data, l’évènement Erasmus Open Data s’est tenu du 13 au 16 septembre sur Nantes et s’est déroulé en trois phases.

1. Les problèmes

La première journée consistait à faire connaissance, découvrir l’état des lieux dans chacun des pays représentés (Lituanie, Portugal, Pays-Bas, Royaume-Uni, Hongrie…) et les actions et projets des communautés en présence (Open Data Manchester, Transparency International, …) et répondre à la question « Pourquoi aurions-nous besoin d’une communauté européenne de l’open data » ?

Team erasmus 2

Résultat du premier jour de production, le manque de connexions génère :

  • Méconnaissance des projets respectifs
  • Fragmentation des initiatives (standards locaux)
  • Duplication des projets et coûts associés
  • Taille de marché au national donc limité
  • Opportunités manquées de développement
  • Illisibilité dans la diversité des initiatives européennes en faveur de l’open data
  • Manque de réutilisation des données européennes
  • Retard de compétences dans certains pays par rapport aux plus avancés
  • Manque d’opportunités de travaux collaboratifs

Chacun de ces éléments représentent des faiblesses sur lesquelles les communautés locales et nationales de l’open data peuvent agir. Mais de nombreuses questions sont induites: Qu’est-ce qu’une communauté européenne de l’open data ? Une communauté qui réutilise les données de l’U.E. et/ou qui réside en Europe ? Les chapitres de l’Open Knowledge Fundation ou l’Open Data Institute à travers l’Europe ne constituent-ils pas déjà une communauté européenne ?

Après échanges, l’accord a été qu’une communauté open data européenne est une communauté qui agit sur l’échelon européen, au bénéfice des habitants ou institutions européennes, soit en travaillant sur les données de la Commission, soit en réutilisant les données de divers pays/villes européens. Dans ces deux cas, l’identité et les frontières européennes sont un élément constitutif de l’action. Or les réseaux existants sont mondiaux avant que d’être européens et ils visent à favoriser le déploiement de leurs propres projets plutôt que des initiatives extérieures.
Finalement, c’est la citation d’un discours de Neelie Kroes assurant son soutien à l’initiative Erasmus Open Data qui a guidé la réflexion sur les objectifs d’une communauté européenne:

« Nous voulons travailler avec vous et vous voir travailler ensemble à travers les frontières et les langues. » Neelie Kroes, OKFest 2014.

2. Des idées

Comment mieux travailler ensemble, coproduire des projets et générer des connexions à l’échelle européenne ? La seconde journée d’Erasmus Open Data a été consacrée à l’identification d’actions concrètes envisageables, au-delà des soutiens aux hackathons internationaux durant lesquels chaque équipe travaille de manière isolée et localement, et au-delà des programmes européens existants ne permettant pas l’échange de compétence sur les données de manière transversale. Comment faire en sorte que des projets tels que OpenPompei, qui répondent au souci de de transparence sur les données archéologiques, soient plus connus et développés, sachant qu’ils répondent à des problèmes rencontrés communément dans différents pays d’Europe ?

  • Galerie d’initiatives pour la mise en valeur des projets et organisations
  • Guichet unique d’accès à la liste des appels et programmes européens open data
  • Évènement annuel de promotion des échanges et connexions
  • Appels européens à usage thématique de données (corruption, environnement…)
  • Internats européens au sein d’organisations open data
  • Animations basée sur le dynamisme des relais locaux (bottom-up)

Des scénarios d’usages ont ensuite été développés pour décrire concrètement l’expérience des participants à ce type d’actions Erasmus et échanges européens. (Visualisations en cours et description sur ces notes collaboratives en ligne)

team 3

3. Une lettre ouverte

Comme dans tout processus collaboratif, ce n’est pas tant les solutions proposées qui représentent une avancée mais le cheminement et les discussions qui ont mené à ces conclusions (slides présentés lors de l’évènement disponibles ici)

Au final, le rapprochement de ce collectif d’individus mobilisés autour de l’action commune Erasmus Open Data a déjà créé des liens et projets transnationaux en devenir, preuve que les rencontres stimulent les coproductions et favorisent le développement de projets et la résolution de problèmes à l’échelle européenne. Nous avons donc besoin de plus d’opportunités d’échanges et de coproduction qui bénéficient au public européen comme à l’Europe et la Commission Européenne dispose de programmes qui permettent de mener des actions en faveur de ce rapprochement pour peu qu’une volonté politique soit affichée en ce sens. Or celle-ci doit être plébiscitée par la communauté.

Pour prolonger et pérenniser cette expérience, nous co-rédigeons actuellement en ligne une lettre ouverte que nous adresserons à la Commission Européenne en lui proposant d’engager des actions concrètes en faveur du développement d’une communauté européenne de l’open data, engagée à travailler à l’international et partager expériences et bonnes pratiques pour faciliter le développement de projets.

Contribuez à la Lettre Ouverte

Vous êtes invités à contribuer et co-signer cette lettre ou inscrire votre territoire sur la liste des lieux intéressés pour accueillir des experts open data européens !

 

Le projet de loi sur la décentralisation visait dans l’un de ses articles à rendre obligatoire l’open data (ou les données ouvertes) pour les communes françaises de plus de 3 500 habitants. Cette notion d’obligation serait désormais portée dans le projet de loi sur le numérique que prépare le gouvernement pour l’automne. Sachant que moins de 3000 communes ont plus de 3500 habitants… est-il vraiment légitime d’exclure 92% des communes françaises du devoir de transparence et accessibilité de l’action publique ?

 

Communes françaises, les sioux de l’open data (par Opensourceway)

 

La fausse excuse de l’incompétence des petites communes

Le seuil serait expliqué par le manque de moyens techniques et financiers des petites communes pour publier des données en ligne. Sauf que: il s’agirait de publier les données déjà existantes sous format numérique, ce qui concerne les communes ayant déjà intégré les compétences et outils numériques en interne et le devoir de partage et de diffusion d’informations fait déjà partie de leurs obligations notamment pour les informations financières.

Différents outils et plateformes de publication existent au niveau national comme local pour publier et accueillir les données sans investissement technique. L’Opération Libre menée sur la commune de Brocas (800 habitants) a d’ailleurs démontré que la pratique d’ouverture des données était transposable à l’échelle d’une petite commune sans expérience. Au contraire, la publication de données représente une opportunité d’appropriation et usage du numérique sur les territoires en fracture.

 

 Le casse-tête de l’accès à l’information concerne aussi les communes

La Commission d’Accès aux Documents Administratifs reçoit chaque année plusieurs milliers de demandes d’accès à des informations publiques auxquelles les citoyens n’ont pas pu accéder.

Les principales demandes concernent les PLU mais aussi les marchés publiques ou la vie locale (délibérations, budgets). Les demandes sont majoritairement portées par des personnes physiques et un tiers des demandes d’accès concerne les communes de toutes tailles.

 

Rapport d'activité CADA 2012

Les communes sont autant sollicitées que l’Etat pour les demandes d’accès aux informations publiques (Rapport CADA 2012)

 

Exclure de l’open data 92% des communes revient à consolider un service public à deux vitesses. Les grandes villes offrant des services d’information, communication, démarches et vie citoyennes en ligne, et les villages dans lesquels il faudra toujours prendre une demi-journée de congés pour aller consulter le plan local d’urbanisme à la mairie. A croire que l’open data ne concernerait que les métropoles et la création d’applications mobiles, à l’heure de l’engagement de la France dans une Gouvernance Ouverte. La difficulté d’accès aux documents publics concerne bien les petites communes et l’open data est un moyen de garantir le droit et les services des citoyens français.

 

Les communes seraient pauvres en données ?

Dans la mouture du projet de loi visant l’obligation de publication de données locales, des inconnues subsistent sur le type de données, leur format ou les standards de publication. Ce serait pourtant l’occasion de normaliser les pratiques selon les principes de l’open data ou d’évoquer la responsabilité des délégataires et entreprises. Les petites communes possèdent toutes des données et certaines peuvent paraître essentielles à la publication. Un certain nombre a déjà été répertorié dans le Guide d’ouverture d’une petite commune ainsi que dans une liste coproduite en ligne avec les internautes. On y retrouve notamment les jeux de données :

  • Budget et dépenses
  • Marchés publics
  • Attributions des subventions
  • Taxes locales
  • Permis de construire
  • Résultat des élections
  • Délibérés
  • Liste des élus
  • Etudes, enquêtes et rapports publics
  • Archives
  • PLU
  • Liste des arrêtés
  • Agenda des évènements
  • Liste des associations et entreprises
  • Localisation et description des équipements
  • Inventaire du patrimoine
  • Travaux publics

Quelques heures par an suffisent à la mise à jour de ces données essentielles à l’activité de la commune elle-même (voir l’exemple de Brocas). Il ne semble pas insurmontable d’envisager qu’un plus grand nombre de communes s’investisse dans la publication de quelques uns de ces jeux de données essentiels pour le territoire et la citoyenneté locale. Les données ouvertes comme nouveau service public à l’ère numérique ?

 

La commune de Brocas a montré la voie

En 2013, Libertic avait participé à l’organisation de l’Opération Libre dans la commune de Brocas. Une carte de Brocas a été créée sur OSM avec les habitants, particulièrement détaillée et surtout mise à jour. Cette carte est utile pour les pompiers qui peuvent désormais visualiser les numéros des habitations ou le syndicat d’initiative qui peut mettre à jour sa carte et publier librement des plans pour les touristes tout en profitant des services basés sur OSM (visualisation des infrastructures ou calculateurs d’itinéraires pour personnes à mobilité réduite) et cela sans investissement supplémentaire.

L’accessibilité des archives, inventaires et documentation sur la commune a permis d’alimenter des articles de Brocas sur Wikipedia désormais disponibles dans une trentaine de langues, de l’italien au chinois en passant par le roumain. La diffusion des photographies des pièces du musée local sur Commons (la médiathèque de Wikipedia) est une autre manière de diffuser la notoriété de la commune et assurer la conservation et visibilité de son patrimoine et richesse touristique.

Pour les petites communes, s’appuyer sur l’ouverture des données et les projets collaboratifs est ainsi un moyen rapide et efficace de valoriser son territoire, sauvegarder le patrimoine, favoriser le lien social et l’insertion numérique et créer des services utiles aux habitants à moindre coût.

D’autres bénéfices et anecdotes liés à l’ouverture des petites communes se trouvent sur ce compte-rendu global incluant un guide d’ouverture et des fiches méthodologiques.

 

 

En résumé

L’exclusion de 92% des communes de France de la logique de libre accès à l’information publique grâce à l’open data semble contre-productive et ralentit les efforts nécessaires de numérisation des services sur les territoires. Plutôt que de patienter en attendant un changement de génération, pourquoi ne pas favoriser dès maintenant les usages numériques dans le cadre du respect du droit d’accès aux informations publiques ?

  • La publication ne concernerait que les données numériques déjà existantes.
  • Des plateformes locales et nationales existent pour publier les données sans investissement.
  • Les petites communes sont déjà tenues de partager des informations.
  • Publier des données basiques en ligne est accessible à tous.
  • Soustraire à la publication provoque une asymétrie dans la délivrance de services aux citoyens.
  • L’incitation à la publication est un levier d’inclusion numérique.
  • Les données des petites communes sont aussi sollicitées par les citoyens.
  • L’ouverture des données est aussi bénéfique pour les petites communes.
  • L’ouverture devrait s’appliquer à chaque niveau de collectivité sans discrimination.
  • Une liste de données essentielles et formats de publication devraient être spécifiés.

 

Les 17 et 18 mai, une nouvelle Opération Libre aura lieu cette fois-ci dans les Vosges à Gerardmer. Chacun est invité à participer à l’ouverture de la commune et démontrer que le sujet ne concerne pas uniquement les métropoles.

 

 

Les prochaines élections municipales offrent l’opportunité aux candidats de présenter de nouveaux projets en matière de développement, de transparence et de relations aux habitants. L’ouverture des données publiques trouve ainsi une place naturelle dans les propositions de programmes numériques pour les communes, à gauche comme à droite.

Pour les villes pionnières telles que Nantes, si de réelles avancées ont eu lieu depuis les premières publications de données, de nombreux efforts restent à fournir pour sortir des effets d’annonce et organiser de réelles pratiques de gouvernance ouverte et de publications de qualité. Or cette nouvelle impulsion nécessite un portage politique et une vision ambitieuse qui font actuellement défaut.

Le site http://data.nantes.fr/ a été lancé en novembre 2011. L’investissement des équipes en charge du projet a permis de belles avancées : la publication d’une centaine de jeux de données, du temps réel, la publication de premières données financières, l’organisation d’un appel à projets qui a connu une forte participation, la mutualisation de la plateforme avec les autres niveaux de collectivités, la normalisation des données sous DCAT permettant l’interopérabilité avec les autres villes, des outils de visualisation de données notamment sur fond de carte OpenStreetMap, des jeux de données sémantiques en RDF, la participation aux efforts de standardisation avec Opendata France… Ces actions sont à saluer car elles placent Nantes parmi les villes les plus actives sur ce sujet d’innovation numérique et sociale, mais le chemin est encore long !

La mise à disposition fiable, de données de qualité, diverses et contributives, ouvrant les débats ou les perspectives de développement économique, n’est pas encore une réalité sur le territoire. Son accomplissement nécessite un travail de long terme et donc une vision politique pour dépasser les limites actuelles.

 

1. Systématiser les publications libres

L’essentiel des informations publiques détenues par la ville reste aujourd’hui encore hors de portée des citoyens et si la ville a bien créé une plateforme de données ouvertes, toutes les données publiques n’y sont pas mises à disposition. Les chiffres cités dans les médias tels que la fréquentation touristique lors du Voyage Nantes ou le comptage des passages à vélo ne sont pas accessibles librement et le public doit s’en tenir aux déclarations officielles. D’autres données, réparties dans les services comme chez les délégataires, restent absentes de la plateforme open data et ne sont a priori pas destinées à être publiées.

La démarche d’ouverture ne se limite d’ailleurs pas aux seules bases de données, on trouve ailleurs des photographies aériennes, des archives ou délibérations des conseils municipaux. Nantes ne publie aujourd’hui que des statistiques, laissant les contenus, images, archives, études, rapports financés par l’argent public et d’intérêt général inaccessibles ou seulement consultables en ligne. La plateforme open data de la ville reste une fenêtre isolée d’ouverture contrôlée.

Engager une gouvernance ouverte passe par un changement de posture qui consiste à publier systématiquement toutes les informations publiques de manière libre par défaut. Toutes les publications officielles, dont les éléments du site institutionnel nantes.fr actuellement sous licence restrictive, devraient être des informations librement accessibles et réutilisables par tous.

  • Chaque nouvelle information publique créée doit être accessible et réutilisable librement en ligne
  • Les information publiques chiffrées, textuelles, visuelles doivent être publiées librement par défaut
  • Les contrats des délégataires et tous prestataires doivent mentionner la possibilité de libre publication

 

2. Fiabiliser les publications

Les ratés de publications de la TAN en terme de documentation et d’accès ont créé une défiance envers le système de publication de la ville. Les défaillances d’accès à d’autres données comme la disponibilité des parkings démontrent que l’infrastructure d’accès à l’information n’est pas stable. Les développeurs qui avaient créé des services sur ces données ont dû faire face aux usagers mécontents du dysfonctionnement de leurs applications. Aucune notification préalable n’avait permis d’anticiper ces problèmes. Un travail est nécessaire pour construire un écosystème solide en assurant de la fiabilité comme de la pérennité des démarches.

  • Développer une infrastructure solide autour de l’accès aux données y compris celles des délégataires
  • Maintenir un dialogue constant avec les réutilisateurs et améliorer la réactivité
  • S’engager sur la pérennité de la démarche d’ouverture

 

3. Publier des données pertinentes

Les données publiées devraient pouvoir répondre aux attentes des usagers. Lorsque Montpellier publie le parcours du tour de France à travers la ville, le jeu de données est visionné plus de trois mille fois dans la foulée. On trouve sur les autres sites open data les PLU, la liste des permis de construire ou les résultats des élections sous 48 heures. En bref, des données d’intérêt pratique tel que le salage des rues publié en temps réel pour tenir les habitants informés des avancées du déblaiement. Sur le forum de data.nantes.fr on attend depuis deux ans la mise à disposition du jeu de données listant les points d’apports volontaires pour le tri des déchets. Ces problèmes de fiabilité comme de mise à disposition des données devraient interpeller les élus sur la qualité des systèmes d’informations alimentant leur prise de décision et les pousser à développer des infrastructures solides.

Les données sur le volet démocratique ne sont pas plus accessibles. Aucune donnée sur les subventions locales ou les délibérations ne sont disponibles. Les données financières ne sont pas utiles aux journalistes qui ont accès à des données bien plus précises que celles mises à disposition. L’asymétrie informationnelle est maintenue au détriment des engagements citoyens. Le service citoyenneté se démarque d’ailleurs par son absence au débat sur l’accessibilité des informations publiques et le lien avec les démarches participatives.

Publier des informations d’intérêt contribue à faire vivre le site et à alimenter des services pour des sujets d’actualité qui correspondent aux attentes. Le libre accès aux informations sur la vie démocratique devrait également faire partie des priorités.

  • Prioriser l’ouverture des données selon les requêtes effectuées sur le site institutionnel et demandes
  • Associer un lien vers les données pour chaque article du site institutionnel
  • Publier les données d’intérêt d’actualité

 

4. Améliorer la qualité des données

Des jeux de données sont structurés de manière insatisfaisante.  Des listes de structures sans identifiants uniques (SIREN), l’absence de coordonnées géographiques pour les jeux de données contenant des adresses, des descriptions tronquées par les systèmes de publication… Des efforts d’amélioration de la qualité et vérification des publications sont nécessaires. Mais cela pose également la question des coproductions possibles avec des acteurs privés et société civile pour améliorer ces données de manière collaborative.

Les contributeurs d’OpenStreetMap ont intégré la liste des adresses postales de Nantes Métropole. En quelques mois, ils ont pu revenir vers Nantes Métropole pour indiquer la liste des erreurs constatées et vérifiées sur le terrain. Les corrections apportées par les contributeurs n’ont cependant pas été prises en compte et Nantes Métropole a continué de publier des données erronées. Comment profiter des bénéfices de l’ouverture et des partenariats avec la société civile sans un questionnement du mode de gouvernance ?

  • Intégrer les identifiants uniques et coordonnées géographiques lorsque applicable sur les jeux
  • Créer une méthodologie de valorisation des contributions externes
  • Autoriser les publications des entreprises et société civile sur la plateforme de données

 

5. Ouvrir l’accès à la plateforme

De nombreux jeux de données comme la liste des commerces, les pharmacies, les distributeurs et autres informations utiles mais non-détenues par la ville sont mises à disposition librement par des sociétés privées ou la société civile à travers OpenStreetmap. Si certaines villes publient ces informations, Nantes ne publie toujours pas de données externes non « labellisées ».

Permettre la publication de données externes, comme le fait désormais http://www.data.gouv.fr, semble d’autant plus essentiel que la licence choisie (ODbL) impose aux utilisateurs de republier l’enrichissement des données utilisées… tandis que la ville ne met pas à disposition de lieu de publication. Certains jeux enrichis se trouvent ainsi éparpillés sur www.nosdonnees.fr ou Datapublica sans lien avec la plateforme locale.

A noter que des données internes ont également été sollicitées sans succès notamment pour la SEVE dont le service Arbor a dû pirater certaines données environnementales par faute d’accès libre. Ce service possède un site internet spécifique qui pourrait adopter des formats et licences libres de publication pour favoriser les usages.

  • Référencer les données externes décrivant le territoire (INSEE, OSM…)
  • Autoriser les publications ouvertes sur la plateforme de manière à constituer un catalogue de territoire
  • Développer les partenariats et animations pour coproduire l’amélioration des données
  • Sensibiliser les services à l’ouverture de leurs données et informations

 

6. Soutenir le développement

Soutenir les usages et services associés aux données passe déjà par l’amélioration de la qualité des données et la fiabilité des services d’accès. Les utilisateurs ne devraient pas avoir accès à des données sous-qualifiées par rapport à celles possédées en interne ou par les délégataires. L’accès aux données devrait être le même pour l’interne que pour l’externe, seul moyen d’éviter le manque de rigueur dans la mise à disposition. Accompagner les utilisateurs et organiser des animations contribue à inciter à la réutilisation. Des appels à projets devaient avoir lieu après le premier et ont semble-t-il été annulés. Le suivi des lauréats du concours d’applications a également été réalisé à minima et les rencontres entre producteurs et réutilisateurs de données se sont espacées.

  • Fiabiliser les outils et étendre le champs et la qualité des données
  • Organiser des rencontres régulières avec les utilisateurs de données
  • Animer la réutilisation et valoriser les créations

 

7. Afficher plus de transparence

Le programme de publication des données n’est pas mis à disposition, il n’y a pas de visibilité sur les avancées alors que ces informations seraient pertinentes pour les réutilisateurs. D’autres informations telle que les statistiques de fréquentation du site, que publie par exemple La Rochelle, ne sont pas non plus publiées malgré plusieurs demandes. Datalocale publie sur son site le résultat de l’audit Opquast des bonnes pratiques de l’open data, Nantes ne publie toujours pas ses résultats qui doivent pourtant pointer les axes d’améliorations à mettre en place.
La liste des données internes et leur niveau d’ouverture (non publiable, publié, en cours) serait un élément d’information supplémentaire permettant de justifier de la fermeture de certaines données.

  • Publier les statistiques du site
  • Publier le plan prévisionnel d’ouverture des données avec leurs intitulés
  • Publier la liste des données publiques et leur statut

 

8. Instaurer une gouvernance ouverte

Une gouvernance ouverte est un mode de gouvernance qui utilise les outils numériques pour diffuser une culture de transparence, participation et coproduction au sein de l’administration. Cette gouvernance s’affiche par une déclaration d’intérêt et la publication d’un échéancier des étapes à engager. Cette mise en place d’une gouvernance ouverte est indispensable à la réalisation des bénéfices de l’open data

A Toulouse, des partenariats se sont développés avec OpenStreetMap. Des alternatives sont possibles mais qui questionnent la mission du service public, ses limites et ses possibilités. Or y répondre nécessite une vision politique autour de l »ouverture des données.

Depuis le départ de Jean-Marc Ayrault qui avait impulsé le projet sur Nantes, l’absence de soutien politique et d’ambition pour le chantier semblent avoir nettement ralenti les efforts alloués à la publication des données publiques. Les obstacles identifiés l’an dernier et accessibles sous forme de liste ici semblent toujours d’actualité pour l’essentiel.

Au-delà de la simple publication de données, l’open data représente un enjeu de gouvernance, d’optimisation des moyens et d’adaptation des infrastructures informationnelles.

  • Prendre position sur la gouvernance ouverte par une déclaration d’intérêt
  • Publier le plan d’actions et étapes de la mise en œuvre

Offre promotionnelle pour les candidats

Afin d’assurer la compréhension des enjeux ainsi que la visibilité du sujet lors de la campagne pour les municipales, l’association Libertic offre une formation gratuite à tous les candidats aux élections qui envisagent d’inclure la question de l’accès aux données publiques et gouvernance ouverte dans leurs programmes d’action.

0000 Bon

Pour les électeurs

Rejoignez le collectif Atelier des Élections pour coproduire les services numériques en lien avec la démocratie locale et les élections 2014 sur http://www.atelierdeselections.fr/