Feeds:
Articles
Commentaires

Aujourd’hui, lundi 17 octobre, l’association OpendataFrance remettait à Axelle Lemaire, secrétaire d’État chargée du Numérique et de l’Innovation, son « Rapport sur les dispositifs d’accompagnement des collectivités locales à l’ouverture des données publiques ».

Ce rapport, réalisé sur lettre de mission, avait trois objectifs :

  1. fixer un état des lieux de l’open data des collectivités en France

  2. proposer un dispositif de soutien à la mise en œuvre des démarches des collectivités

  3. proposer des démarches d’animations et mutualisation au niveau national.

Nous vous proposons ici un résumé du rapport et nos premières réactions.

 

  1. Etat des lieux de l’open data des collectivités

La loi pour une République numérique représente une étape majeure pour le mouvement open data en France. Toute collectivité de plus de 3 500 habitants étant désormais tenue de publier des données ouvertes, comment organiser concrètement la mise en œuvre de cette obligation et accompagner ce changement d’échelle ?

L’association Opendata France, qui réunit selon ses propos plus de 70 collectivités engagées dans l’ouverture de données (en comptant toutes celles qui ont publié un jeu de données, il y a quelques années puis plus rien) part du constat suivant: une poignée de collectivités pilotes se sont déjà lancées dans le mouvement. 45 % de leurs données sont des données géographiques et cette dynamique de publications est accompagnée d’une évolution dans la gouvernance interne des données, constatée notamment avec la création de postes d’administrateur général de données (AGD).

Les collectivités les plus grosses en termes de population sont celles qui ont le plus avancé sur le sujet des données ouvertes. Les collectivités de tailles moyennes et petites ne se sont pas réellement positionnées sur le sujet qui n’apparaît pas comme une priorité et qui leur est souvent mal connu et incompris. Elles sont également dépossédées de leurs propres données par les EPCI ou les délégataires et ont donc une faible culture du sujet. Un travail de communication s’impose pour expliquer la mise en œuvre, les bénéfices en terme d’accès aux informations de la commune, la réduction des charges et centralisation des informations, etc.

Les limites des démarches :

  • peu de réutilisations des données
  • marché économique local et trop restreint
  • peu d’implication des réutilisateurs de données dans les démarches
  • manque de normalisation et de référentiels pour les données
  • animations trop territorialisées

 

odf-grossesse

2. Quel soutien pour la mise en œuvre des démarches open data des collectivités ?

Face à ce constat, des actions concrètes sont proposées dans le rapport. Il est rappelé en premier lieu que l’organisation du changement d’échelle (et donc le défi) consiste à multiplier les initiatives tout en assurant la qualité et conformité des données avec les lois en vigueurs, notamment en ce qui concerne le respect de la vie privée. L’enjeu est fort sur la normalisation, car si celle-ci s’est à peu près stabilisée autour de deux licences (nous verrons que non), les données elles-mêmes manquent cruellement de standards communs.

Voici quelques propositions du rapport :

  • Coproduction avec les collectivités d’un socle commun de données

Définir conjointement les données essentielles à publier et sur lesquelles bâtir une structuration commune. Une vingtaine de données sont proposées en annexe (page 49), parmi celles-ci : le budget, le PLU, les marchés publics, les délibérés, contours IRIS, résultats d’élection, agenda, etc.

  • Création d’un service public de la donnée locale

Proposition déjà mise en œuvre par Etalab qui propose sur www.data.gouv.fr/ et pour chaque commune de France, une page dédiée agrégeant automatiquement des données locales (INSEE, Finances, etc). L’idée est de centraliser les données existantes pour éviter aux communes de doublonner un travail de publication. Nous nous étions d’ailleurs appuyés sur ce service pour Montreuil-en-Touraine durant la dernière Opération Libre car il permet également de publier manuellement les données supplémentaires des communes.

A noter que l’étude ne conclue pas à la nécessité d’un service d’hébergement imposé par l’État, qui ne serait pas légitime aux yeux des collectivités.

  • Création de l’observatoire d’une évaluation des politiques open data des territoires

Le rôle de cet observatoire serait de suivre, évaluer et répondre au mieux au développement du mouvement open data en France. Mais ces critères d’évaluation restent à préciser.

  • Intégration de modules d’exports dans les progiciels métiers

A l’heure où les éditeurs persistent à emprisonner des données dans les logiciels métiers, un changement de paradigme s’impose. Des partenariats avec des éditeurs spécialisés seraient mis en œuvre pour inclure des modules d’export et portabilité des données des collectivités.

 

3. Les démarches d’animation et mutualisation

  • Création de référentiels pédagogiques mutualisés.

Documentation qui a déjà commencé à être constituée sur http://www.opendatafrance.net/ressources/.

  • Formations théoriques et pratiques

La première formation au logiciel R à destination des collectivités commence justement aujourd’hui.

  • Sensibilisation des élus

(message d’intérêt local) Nous proposons une expérimentation de sensibilisation aux élus sur la personne de M. Bruno Retailleau afin de le motiver à reprendre la dynamique open data de la région Pays de la Loire qu’il préside.

  • Phase d’expérimentations

Afin d’organiser une première étape de prototypage de démarches d’ouverture selon différents échelons de territoires  (communes, métropoles, départements, etc), l’association OpendataFrance propose une phase d’expérimentations avec des territoires pilotes. Celle-ci permettrait notamment d’identifier des modèles d’articulations d’ouverture sur les territoires et guides de bonnes pratiques.

Quelques organisations déjà postulantes pour l’expérimentation : La Région Provence-Alpes-Côtes d’Azur, un groupement de cinq acteurs en Bretagne, la préfecture de région Occitanie, le département de Loire-Atlantique, le Syndicat Mixte Informatique de Charente-Maritime (SOLURIS), liste non-exhaustive.

Deux initiatives de formations sont également proposées :

  • La création d’un certificat de formateur

Décerné par l’État, il s’agirait de quelques jours de formations pour les formateurs souhaitant obtenir ce certificat. Initiative d’intérêt pour ceux qui assurent déjà ou souhaitent assurer des formations Open Data auprès des collectivités, ce certificat assurerait la pertinence, qualité et conformité de leurs formations avec les référentiels nationaux. Libre aux collectivités de choisir ensuite des formateurs certifiés ou non.

  • Une formation d’animateur de la donnée territoriale (ADT)

Inspiré de la création et du rôle des Animateurs Numériques de Territoire dans le secteur du tourisme, l’ADT est chargé de déployer l’open data sur son territoire, il fait office de référent open data local et travaille en réseau.

 

 

Notre avis

L’initiative marque un pas de plus vers l’ouverture par défaut des données des collectivités et nous ne pouvons que féliciter les parties-prenantes de maintenir cette dynamique. Mais pour alimenter de futures réflexions, voici quelques commentaires et questions qui restent en suspens selon nous.

Tout d’abord, le rapport offre une série de propositions des collectivités mais rien ne permet d’affirmer que toutes ces hypothèses seront mises en œuvre. Le rapport a le mérite d’offrir une option réaliste d’ouverture technique généralisée, sauf que sa faisabilité tient sur une ouverture au rabais. Il semble que le plus petit dénominateur commun ait été pris comme modèle de base de prototypage : une commune de 3 501 habitants qui publierait 20 jeux de données statiques dont la moité pré-agrégée par l’État. Mais les modèles d’ouvertures, des agglomérations par exemple, de par la richesse, quantité et complexité de leurs données gagneraient à suivre un modèle plus élaboré.

Bien sûr il y a les phases prévues de prototypages pour répondre à toutes les questions en suspens. Mais il semble que les collectivités partent pour maintenir des démarches d’ouverture selon le triptyque « publication-animation-usages externes » dont le modèle, à l’heure des administrateurs généraux de données et data scientists pour usages internes, semble discutable pour les plus hauts niveaux d’ouverture. Seule une petite phrase mentionne d’ailleurs l’usage interne des données – Eat your own dog food – pour indiquer que cette approche est bien prévue, sans sembler pivot.

(Visionnez à ce propos la table ronde « Pilotage par les données et nouveaux métiers de l’open data » et autres captations du salon Open Data que Libertic co-organisait en septembre)

Le risque de cette généralisation d’ouverture de données a minima est d’entrer dans une simple démarche de publication automatisée, de données dissociées des usages internes, et donc à obsolescence programmée, générant une production de données orphelines en masse. Vous voulez un exemple ? Multipliez désormais par 3 800 communes et EPCI.

Il est regrettable que les sujets de prospectives (bien que d’actualité pour certaines collectivités) aient été écartés du rapport, tel que les scénarios d’ouverture conjointe de données publiques, privées et d’acteurs tiers d’un territoire. Ceux-ci représentent un modèle d’intérêt pour les agglomérations mais ont été considérés comme ne relevant pas du cadre de l’étude car « ils ne concernent que les acteurs les plus matures de l’open data ». Dommage de ne pas avoir profité de cet exercice pour préparer également le futur.

Un autre terme absent du rapport : la gouvernance ouverte. Il est en fait cité une petite fois pour préciser que ce thème sortait lui aussi du cadre de l’étude. À deux mois du sommet mondial que la France présidera à Paris, il n’est toujours pas d’actualité d’aborder l’open data sous l’axe d’une cohérence globale d’actions de modernisation de l’action publique. On regrettera une vision segmentée entre processus technique et organisationnel car sans travail d’acculturation, engager un réel développement autour de l’usage des données risque de s’avérer difficile.

La vision hypersectorisée de l’open data des collectivités induit notamment un problème. Les collectivités peinent à identifier un marché pour leurs données hyperlocales, celui-ci étant trop fragmenté et dissocié des données nationales et informations publiques qui alimentent, elles, les chiffres pharaoniques annoncés dans les bénéfices de l’open data. La dernière étude « Open Data Maturity in Europe 2016 » mentionne ainsi la croissance prévue de 36.9% de la valeur du marché des données publiques ouvertes pour atteindre 75,7 milliards d’euros en Europe pour 2020. Ces chiffres désespèrent les collectivités incapables d’identifier la valeur locale, notamment car elles peinent déjà à quantifier et chiffrer des bénéfices internes qui sont pris en compte dans ces calculs et car elles peinent à identifier leur valeur associée aux marchés nationaux.

Il est également possible de questionner la capacité d’ OpendataFrance à mettre en œuvre cette normalisation annoncée. Cela fait trois ans que l’association travaille à la création de standards, avec relativement peu de résultats à ce jour. Entre parenthèse, l’association n’a toujours pas réussi à normaliser le terme « open data » orthographié « opendata » dans son rapport. Et l’une des seules normalisations effectives autour des deux licences de données ouvertes (LO et OdbL) sera bientôt affaiblie par OpendataFrance elle-même, avec la création d’une nouvelle version OdbL v2 actuellement en travaux. Pour sa décharge, il est vrai que l’association n’avait jusqu’à présent que peu de budgets et travaillait avec des bénévoles.

Mais qu’en est-il du financement de la mise en œuvre justement ? Étrangement, ce rapport ne définit aucune estimation budgétaire. Quel coût ? Quel modèle économique ? Quelle prise en compte des évolutions de financements des régions par exemple? Une prise en charge par les collectivités ? Un financement de l’État ? Si oui, est-il prévu avant les élections présidentielles ?

Enfin, au lieu de propositions concrètes, le rapport énumère de vagues intentions dont la mise en œuvre n’est pas détaillée : mener conjointement l’ouverture avec la CADA et la CNIL (sous quelle forme?), améliorer les données en facilitant les retours de réutilisateurs (quelles actions supplémentaires envisagées?). On aurait aimé des propositions d’actions plus précises. D’ailleurs, lorsque les propositions se détaillent, telle l’intégration de fonctionnalités d’export de données pour les logiciels métiers par exemple, on soupçonne déjà les difficultés cachées. Prenons le cas des fonctions d’exports de données GTFS (normes poussée par Google pour les transports publics), l’export est maintenant présent dans de nombreux logiciels-métiers mais souvent encore la donnée est inutilisable car l’intégrité des données n’a pas été vérifiée.

En conclusion, un rapport positif qui apporte des éléments pour développer l’ouverture par défaut mais encore beaucoup de questions et de travail sur la route.

Note des auteurs : Libertic est une association à but non-lucratif implantée en Pays de la Loire et a accompagné la région dans son étude de création d’un Datalab. Libertic est également membre associé d’OpendataFrance, association créée suite à l‘initative de rencontre des collectivités en 2012. Enfin Libertic a été consulté pour la rédaction de ce rapport.

Face à la pénurie de carburant sur plusieurs départements de France, un constat : la difficulté à trouver des informations fiables concernant les stations-service sur le territoire et leur disponibilité en carburant.

Comparatif

Les informations existantes ne suffisent pas

Les GPS proposent à leurs usagers des stations-service proches, et des cartographies de stations ont déjà été publiées. Or, ces informations se basent essentiellement sur des bases de données incomplètes.

Les 3 principaux référents en ligne sur l’état de la pénurie sont actuellement

Ces derniers répertorient 10 245 stations pour la France (chiffre fluctuant). Selon Le Monde, l’UFIP en dénombre 11 269, quand la base ouverte de référence en comptabilise 12 097 et il en manque encore. Pour ce qui est de l’état des stocks de carburant aux stations, le site prix-carburants.gouv.fr ne publie cette information qu’avec 7 jours de carence. Aucune initiative ne redistribue librement les contributions des conducteurs. Cette approche logiquement concurrentielle ne permet pas les enrichissements de l’information qui permettraient d’avoir une vision globale de la situation.

Les voitures ne circulent pas, l’information non plus.

L’association Libertic, qui fait la promotion du libre accès à l’information publique en open data a donc cherché à libérer les données aujourd’hui accessibles sur les stations-service. L’objectif étant de permettre à chacun de s’en emparer, de créer des cartes plus exhaustives et d’en favoriser la diffusion. Ces données permettront également de réaliser des sites collaboratifs qui remettraient librement à disposition les contributions sur la pénurie.

Voici les étapes, contrariétés, et découvertes de ce projet #Hackpenurie en cours.

 

Etape 1. Trouver des données

Nous avons d’abord listé les sources potentielles de données géolocalisant les stations afin de pouvoir les compiler. Jusque récemment, la publication d’une base de données d’entreprises sur un territoire était susceptible d’enfreindre le cadre du secret commercial, notamment au pretexte qu’une cartographie des acteurs permettrait de définir la stratégie de leur implantation (faites-vous plaisir). Or, depuis la loi Macron de 2015, un paradoxe se met en place: le secret des affaires (interprétation libre) en même temps que l’open data et la publication du registre Infogreffe, comportant le nom des entreprises et leurs adresses ont vocation à être librement disponibles. Voici quelques sources que nous avons répertoriées, n’hésitez pas à nous en indiquer d’autres !

Prix-carburants.gouv.fr

Cette base nationale collecte les informations et tarifs affichés aux stations-service. 12 097  stations sont répertoriées.

Problèmes

  • Erreurs dans la base: La base n’est pas propre. Des stations-apparaissent en Autriche, Somalie ou dans l’océan. Les longitudes et latitudes sont parfois inversées. Certaines donnéent semblent des doublons.

SomalieLa localisation de stations-service en France, selon la source officielle prix-carburants.gouv.fr qui commercialise la base par ailleurs…

  • Manque d’informations: Des informations ont été tronquées dans la version libre des données : il n’y a pas le nom de la station ni la marque, pénalisant le recoupement. Des incertitudes également sur le numéro identifiant des pompes.
  • Données à -7 jours: Le site ne publie librement que la base de la semaine passée. Or, si nous avions eu les prix du jour-même, nous aurions en même temps l’information sur les pompes n’ayant plus de carburant. L’accès à cette information coûte près de 40 000€. Tant pis pour la disponibilité aux pompes.
  • La base n’est pas exhaustive: Seules les stations avec un débit supérieur à 500m3 annuel sont répertoriées. Ce qui explique que les petites stations-services sont absentes de la base.

20160525_092036(1)Station orpheline. La petite station de Maisdon-sur-Sèvre n’est référencée nulle part (en même temps, elle est en pénurie de carburant…)

Infogreffe

Infogreffe dispose d’un site open data listant les entreprises immatriculées par année. Idéal pour améliorer la base source ? Fausse bonne idée.

Problèmes

  • Manque d’archives: Seules les entreprises immatriculées depuis 2013 sont répertoriées.

  • Catégorisation limitante: Impossible pour nous de retrouver les stations-services dans la catégorisation.

Nous avons abandonné cette source. En espérant que la publication du registre prévue en 2017 puisse prochainement combler ces lacunes.

Openstreetmap

OSM est une base de données cartographique contributive offrant des données totalement libres. Près de 10 000 stations-services ont déjà été répertoriées par les contributeurs. Grâce à Christian, les bénévoles en ligne et nos volontaires, nous nous sommes appuyés sur Openstreetmap.

tagfuel

Problèmes

  • Manque de données: Si la couverture au national reste impressionnante pour un travail de contribution, sur les 243 stations annoncées par la préfecture en Loire-Atlantique, 166 sont répertoriées.

  • Pas d’identifiants: Les données renseignées fournissent parfois le nom de la station, ou les numéros de téléphone mais pas d’identifiant unique permettant de recouper avec Prix-carburants. Il faudra se baser sur les coordonnées.

 

Stations GPL

Source découverte via Openstreetmap, le site http://stations.gpl.online.fr propose une base de données téléchargeable sur les stations distribuant du GPL. Ce sont des coordonnées GPS à convertir.

Problèmes

  • Qualité et Mise à jour: Le site ne semble plus à jour depuis 2011 et des erreurs sont constatées. Nous abandonnons cette source; qui a tout de même servi à quelques recoupements.

BP Suisse

Nous avons commencé à chercher des données sur les sites officiels des distributeurs. Surprise, BP en Suisse propose une base de données « librement accessible ». Cette source est très riche et répertorie à elle seule près de 12 000 stations en France en comptant toutes ses marques. D’autres sites de distributeurs restent à explorer à ce jour.

Problème

  • Licence

La licence d’utilisation associée au service permettant de télécharger les données indique qu’elles sont « librement accessibles ». Est-ce qu’en suisse cela veut dire « réutilisable » ? Il sera toujours possible d’utiliser cette source pour recouper des informations.

Etape 2. Créer des données

Nous avons ensuite cherché quelques informations existantes qui pouvaient être converties en bases de données ouvertes. Ce qui donne :

  • Liste des carburants (source : prix-carburants.gouv.fr)
  • Liste des arrếtés préfectoraux liés à la pénurie (source : Ouest-France, préfectures)
  • Liste des distributeurs de carburant (source : Wikipedia)
  • Compilation des bases (source : prix-carburants/OSM/BP Suisse)
  • Création des correctifs des données africo-norvegiennes

Etape 3. Corriger, compiler et visualiser

La base de prix-carburants a été corrigée via BANO (base publiée ici) . Un exemple d’erreur ci-bas, avec le correctif en rouge intitulé « source gouv bano ».

visuel correctif

Et voici la carte listant et comparant différentes sources de données (OSM/BP/Prix-carburants/Correctif Bano). Cliquer dessus pour naviguer au national.

Global comparatif

La carte de Nantes Métropole

Nous compilons ensuite les données collectées pour faire un test petite échelle, sur la métropole de Nantes.

Carte NM

Nous réalisons parallèlement le 23 mai une campagne de phoning pour vérifier la qualité des données et disponibilité des stations. Des adresses sont corrigées ou supprimées (base locale corrigée à publier prochainement).

Sur 27 stations (sic) affichées sur le listing pages jaunes indiquant les numéros de téléphone, 2/27 n’étaient pas des stations-services. 21 sur les 25 restantes (84%) ont répondu à nos appels. 18/21 sont en pénurie, 1/21 a encore du GPL, 2/21 ont encore deux carburants.

Réaliser ce travail de recoupement à l’échelle du département nous permettrait de vérifier si les chiffres de la préfecture prennent ou non en compte les quelques 3 000 stations-services indépendantes (source FF3C) qui ont probablement un faible débit et ne sont pas répertoriées sur prix-carburants.gouv.fr. A partir de là, est-ce qu’en comptant les stations au débit inférieur à 500m3 annuel le taux de pénurie serait plus élevé que celui annoncé ?

Etape 4: Publication et enrichissement

Nous avons publié librement tous les jeux de données sur data.gouv.fr Chacun peut s’en emparer, les enrichir, et réaliser ses compilations sur son territoire ou au national. La correction du fichier prix-carburants.gouv.fr est également reversée.

Les axes d’améliorations identifiés

En d’autres termes : ce qui nous aurait facilité la tâche.

  • Publier les données quotidiennes exhaustives et corrigées de prix-carburants.gouv.fr
  • Que chaque distributeur publie la liste de ses stations
  • Avoir des identifiants uniques de stations accessibles dans les données
  • Avoir accès à l’enregistrement des stations-services sur Infogreffe avec un historique large
  • Envisager des campagnes cartographiques OSM sur ces données d’intérêt général pour améliorer la base ?
  • Bonus : Pouvoir réutiliser librement les logos des distributeurs pour l’interface usager des plateformes de contribution

Nous étrennons une nouvelle rubrique: Réponse au courrier de lecteurs

Cette semaine nous avons demandé des données ouvertes à la préfecture de Loire-Atlantique, qui n’a pas répondu à ce jour. Suite à cet appel en ligne, un journaliste nous a interpellé très aimablement précisant qu’il ne voyait pas l’intérêt de notre démarche – de recoupement d’informations et qualification des données – (ça laisse songeur).

Alors clairement à quoi sert cette initiative ?

  • À pointer que les efforts d’ouverture de données en France sont aujourd’hui trop faibles
  • À contribuer à l’amélioration de la qualité des données fournies
  • À fournir des données – aux medias notamment – pour qu’ils puissent travailler sur d’autres bases que des copiés-collés de communiqués de préfectures.
  • À favoriser les initiatives de réutilisation de ces données
  • À démontrer l’intérêt des données ouvertes comme levier de meilleure diffusion de l’information

 

 

Ferris_wheel_shame_by_Patrick-M_ccbyncsa_viaflickr

Ferris wheel shame, by Patrick M – cc-by-nc-sa via Flickr

La France et ses acteurs ont souvent été rares dans les événements internationaux dédiés à l’open data. A croire que nous ne savons pas vendre les projets locaux – qui ne manquent pas – sur les affiches des conférences internationales ou sur des événements tels les Open Data Awards, aucun lauréat français. Ce qui peut porter à confusion, avec des messages comme :

 

Et pourtant non, le mouvement est toujours bien en marche et de nettes avancées sont à noter. De nombreuses initiatives seraient même à faire valoir sur les prochaines actualités, pour peu que l’on se mobilise.

 

Quelques preuves du dynamisme de l’open data en France

Deux opportunités

  1. La présidence de la France à l’Open Government Partnership pour 2016 serait une première occasion de mettre ces actions en avant. Pour peu que l’on ne reste pas sur de l’affichage.
  2. La rencontre mondiale des acteurs de l’open data en Octobre à Madrid constitue une seconde opportunité de valorisation. Pour l’instant, aucun acteur français n’y a déposé de dossier d’inscription. Un appel à projets est pourtant ouvert et facile d’accès.

 

Appel à actions

Vous avez un projet autour des données ouvertes, prenez 2 minutes pour le proposer à Madrid !
Vous avez d’autres suggestions de projets open data français à valoriser ? Postez votre liste en commentaire:)

Aef opl logo

Et de 3 ! Les 26 et 27 septembre aura lieu la 3eme édition de l’Opération Libre à Chéméré.

 Cette initiative portée par le département de Loire-Atlantique et la commune de Chéméré (2 400 habitants) ainsi qu’une dizaine d’organisations du libre propose aux habitants des activités ludiques et numériques le temps d’un week-end. L’objectif : libérer ensemble les informations et outils de la commune pour démontrer le potentiel du libre et de l’ouverture grâce aux animations thématiques de différentes communautés. Une façon pragmatique d’engager une démarche d’ouverture dans une commune en lien avec ses habitants.

Logos total OPLUne démarche conviviale qui permettra de valoriser et mieux connaître la commune de Chéméré en collectant et partageant tous types d’informations sur elle : son histoire, son patrimoine, sa géographie, sa faune, sa flore, ses services à la population, son activité économique, ses finances, ses projets etc.

Ces données seront ensuite diffusées sur Internet pour une consultation et réutilisation libre par tout un chacun. Cet évènement facilitera les échanges, développera les connaissances sur la commune, produira de nouvelles données, informations et contenus libres permettant leur réappropriation et l’initiation à de nouvelles pratiques numériques à travers une série d’ateliers :

  • Histoire : Rédaction d’articles en lien avec la commune sur Wikipedia, numérisation collective des archives, ateliers d’écriture pour les enfants sur Vikidia, traduction d’articles, visite guidée de l’église et rédaction d’article associé…
  • Géographie : Création d’une cartographie libre de la commune sur Openstreetmap, réalisation de vues 3D de Chéméré, création de cartes design thématiques à intégrer sur le site de la commune, création d’un streetview avec Mapillary, création de plan du bourg sur Maposmatic, cartographie de l’évolution des parcelles viticoles de Chéméré…
  • Faune et Flore : Collecte d’échantillons de la flore et faune locale, constitution de leur base de données sur Tela Botanica
  • Photographie : Sorties photos pour apprendre à maîtriser son appareil puis alimenter la banque multimedia de Commons, Avant/Après des images de la commune, session prise de photos dans l’église…
  • Informatique : Survol d’un drône, Installation de Linux sur les ordinateurs, mise en place d’un pont wifi autonome depuis Pornic, stand libre, création d’un répertoire d’usage des logiciels libres au sein de la commune de Chéméré, création d’une platfeforme participative Ushahidi pour la commune et ses habitants
  • Citoyenneté : Publication de données ouvertes de la commune et éditorialisation, analyse des compte-rendus des conseils municipaux…

Vous souhaitez participer à ce moment libre et festif ? L’occasion de découvrir de nouveaux projets, promouvoir le libre, pratiquer et mettre des visages sur des pseudos ! Inscription libre mais nécessaire pour prévoir hébergement et restauration en cliquant sur ce bouton.

inscription

Découvrez la liste des activités et proposez de nouveaux ateliers ! (imprimantes 3D ? musique libre ? etc)

Pour un aperçu de retour d’expérience de la première Opération Libre, vous pouvez télécharger le document ci-bas.
Guide d'ouverture une petite commune

Après quatre ans de démarches d’ouverture de données publiques en France, le contraste ne cesse de croître entre les initiatives éphémères relevant de la pure communication et les initiatives visant à contribuer activement à la modernisation des services publics. Cependant même les initiatives plus pérennes ne sont pas signe d’ambition réelle d’ouverture et quelques critères clés le démontrent.

L’accès aux informations publiques reste laborieux malgré l’open data

L’ouverture des données n’a pas résolu les problèmes d’accès aux informations publiques. La synthèse de la concertation du Conseil National du Numérique sur l’open data note les difficultés persistantes d’accès. Pour confirmer, après plusieurs demandes sans résultat, l’association Libertic vient de déposer un recours auprès de la Commission d’Accès aux Documents Administratifs concernant l’accès aux listes des jeux de données publiques de Nantes Métropole et du département de Loire-Atlantique, preuve que même sur les territoires Open Data l’ouverture n’est pas toujours la priorité.

Même si le projet de loi sur le numérique pourrait bientôt intégrer l’ouverture des données publiques par défaut, il paraît évident que le véhicule juridique seul ne pourra suffire à imposer l’accessibilité des informations publiques dont les freins sont en premier lieu culturels. Mais des actions peuvent déjà être mises en place pour développer l’accessibilité, pour peu que l’on veuille réellement s’en donner les moyens.

Cinq actions pour de vraies politiques d’ouverture

Voici une proposition de cinq actions concrètes applicables pour favoriser l’ouverture. Leur application ou non sur un territoire permet d’évaluer le niveau de volonté d’ouverture des informations publiques. Les mettre en oeuvre signifie également s’assurer d’avoir donné aux gestionnaires de projets open data les moyens nécessaires à leur action de centralisation et libération des données.

Le desespoir du chef de projet open data. Image adaptée de Vanmattug par Sara Bjork sous licence Creative Commons cc-by-nc-sa https://www.flickr.com/photos/aegishjalmur/2288932018/

Le désespoir du chef de projet open data.
Image adaptée de Vanmattug par Sara Bjork cc-by-nc-sa

1. Déclaration d’engagement d’ouverture de toutes les informations publiques par défaut

Cet engagement fait partie des recommandations du rapport Trojette sur les exceptions au principe de gratuité. Il s’agit d’affirmer et publiciser la décision de publication systématique des informations publiques afin de les rendre accessibles à tous en ligne, dans le respect de la vie privée et autres mentions légales en cours.

Cette action marque le premier jalon d’un changement de culture d’une organisation, de l’ouverture par exception à l’ouverture par défaut. Sans cette affirmation d’ouverture par défaut et justification des cas d’exclusion à la diffusion, chaque demande d’accès devra subir le traitement laborieux d’une validation interne avec un risque de fin de non-recevoir.

A noter que cantonner le droit d’accès aux informations publiques et l’ouverture aux seules bases de données statistiques est une vaste hypocrisie. Les contenus, photographies, études et textes sont des informations publiques qui devraient être librement réutilisables selon les mêmes principes.

2. Changement des clauses des marchés publics et subventions

Depuis le 17 avril 2014, les marchés publics de la Ville de Paris sont assortis d’une clause demandant au fournisseur répondant à l’appel d’offres de « libérer les données » produites dans le cadre de l’exécution d’un marché. Les démarches ou tentatives d’ouvertures ont en effet mis en lumière le dépouillement des acteurs publics de leurs propres données par la délégation et sous-traitance de missions. Les données créées par des associations ou entreprises dans le cadre d’une mission de service public n’étaient pas rendues publiques. Il suffit pourtant d’ inclure dans les contrats une clause de réutilisation des données pour garantir leur accessibilité. Sans cette clause, des données essentielles restent exclues du domaine de l’ouverture et du libre accès aux informations publiques. Et cela avec le consentement explicite des donneurs d’ordre qui se déchargent en répondant aujourd’hui : « Nous ne pouvons pas publier ces données que nous avons en interne, nous n’avons pas les droits dessus. » Les droits, cela se négocie.

3. Intégrer l’ouverture dans l’évaluation des agents

De nombreux services et agents publics freinent encore l’accès à « leurs » données publiques, et ce malgré des politiques volontaristes en la matière. Par peur de publication de données erronées (ce n’est pas grave d’utiliser des données erronées, c’est grave de les publier), par manque de fiabilité et mise à jour des données, par peur de perte de pouvoir sur un objet d’auto-promotion en interne… De nombreux chantiers de formation à l’ouverture restent à mener en interne des organisations pour rendre compréhensibles les enjeux et opportunités de l’ouverture. Intégrer également un critère d’évaluation des agents sur leur capacité à partager des données et publier leurs ressources est une façon de faciliter ce changement de culture interne. Un critère « open data » dans l’évaluation annuelle permettrait également de créer une motivation des services à la mise à jour des données publiées. Car parmi les critères de qualité des démarches open data, les fréquences de mises à jour des jeux publiés arrivent en tête de liste. Or l’absence d’incitatifs à la mise à jour provoque aujourd’hui l’émergence de cimetières de données orphelines en ligne et l’impuissance des responsables des projets open data face à des collègues peu motivés pour mettre à jour le bases, support de leur travail. Intégrer l’ouverture des données comme critère d’évaluation et promotion au sein des organisations est pourtant l’une des méthodes envisageables pour développer des incitatifs positifs.

4. Publication des listes des jeux de données

Le droit d’accès aux informations publiques suppose que chacun ait connaissance des informations existantes afin de pouvoir en demander l’accessibilité. Or il est très difficile de déterminer qui possède quel jeu de données, et donc d’en faire la demande. Voilà pourquoi publier la liste de tous les jeux de données gérés par les collectivités devrait être obligatoire. Aujourd’hui, chaque collectivité est seulement tenue légalement de créer et tenir à jour ce répertoire. Pour libérer ces jeux de données, à chacun d’en faire la demande ! Et pour faire cette demande, publier sur les sites open data le guide d’accès aux documents administratifs est essentiel.

Suite à notre requête auprès de la région Pays de la Loire, nous avons ainsi reçu par email le jeu suivant précisant l’état d’ouverture des données publiques (ouvert, en cours d’ouverture, non-ouvrable). La raison évoquée pour la mise à disposition par email mais sans publication sur la plateforme officielle de la collectivité a été la difficulté de mise à jour du jeu qui deviendrait vite obsolète.

5. S’ouvrir aux contributions

Permettre les contributions, les mises à jour de données, les retours est un moyen d’assurer l’amélioration continue par l’interaction avec les réutilisateurs de données. Se cantonner à la seule diffusion de données revient à se priver des potentiels d’amélioration de la qualité des jeux. Des solutions techniques de versioning existent pourtant pour traiter la mise à jour collective. Ces pratiques sont d’autant plus pertinentes pour les jeux de données qui évoluent rapidement : agendas, annuaires d’acteurs, pour lesquels chacun gagnerait à partager les mises à jour.

Faciliter les retours et contributions est donc un signe d’ouverture ultime qui permet d’entamer les étapes suivantes d’une gouvernance ouverte à savoir s’engager dans la participation et coproduction et entamer ainsi une réelle modernisation des services publics plutôt qu’une simple action de com’.

5 etoiles evaluation politique open data

En conclusion

Cette liste des actions pouvant déterminer l’ambition réelle d’ouverture à travers un projet open data est partielle et la hiérarchie des niveaux est aléatoire. Mais l’objectif est avant tout de démontrer que des leviers d’actions sont possibles pour développer les cultures et pratiques de publication pour peu que l’on se donne les moyens d’une réelle politique d’ouverture. Une évaluation de l’ambition d’ouverture de votre territoire est donc déjà réalisable à partir de ces cinq premiers critères, sur le modèle des cinq étoiles de la qualité d’ouverture des données. Les marges de progrès sont d’autant plus grandes qu’aucun territoire ne semble avoir développé toutes ces pratiques. Et selon vous, votre collectivité, elle obtient combien d’étoiles ?

Cela fait plus de cinq ans que Tim O’Reilly a publié son pamphlet Open Government.sur le Gouvernement Plateforme. Depuis, nous avons vu l’ouverture des données publiques gagner en popularité et intégrer les mœurs. L’Etat comme des collectivités locales à travers la France ont développé des plateformes d’accès aux données publiques. Ils ont posé avec succès les bases d’un nouveau type d’administration ouverte qui ouvre ses interfaces et mobilise un écosystème de réutilisateurs. Cependant, il semble que ces nouvelles pratiques se soient arrêtées en plein milieu de ce chemin vers un gouvernement ouvert, un gouvernement plateforme.

Il est encore difficile d’intégrer les données publiques ouvertes dans des services commerciaux tant la qualité et mise à jour des données laissent à désirer. La diversité de structuration et formats des données que l’on retrouve sur une même plateforme est préjudiciable à l’usage et certaines données sont carrément inutilisables. Notamment celles qui n’ont pas été mises à jour depuis leur première publication et qui sont désormais obsolètes. Lorsque la documentation existe, elle est souvent partielle ou incompréhensible.

 

Il est difficile de mesurer l’impact d’une démarche d’ouverture mais nous pouvons dire sans hésiter que le nombre de personnes qui a pu bénéficier des données ouvertes est bien moins conséquent que ce que nous étions en droit d’attendre. Bien sûr nous pouvons applaudir les avancées, sur le nombre de jeux publiés et sur l’accès (partiel) à des données fermées jusque là tel que le prix des carburants ou les informations nutritionnelles, bien. Cependant, si nous voulons avancer au-delà du seul processus de la publication pour le nombre, il convient de se concentrer sur la qualité des données plutôt que la quantité.

Le vrai dilemme derrière ce problème de qualité des données, c’est que les personnes qui ont le pouvoir pour les améliorer ne sont pas incitées à le faire. Les agents de l’administration, qui font un travail considérable bien souvent en sous effectif et avec peu de moyens, sont pour beaucoup convaincus des bienfaits de la transparence et et de l’accès à leurs données. Mais aujourd’hui l’open data représente une charge supplémentaire plutôt qu’une solution à leurs problèmes quotidiens. Lorsque les données deviennent obsolètes ou doivent être corrigées, quelqu’un doit prendre le temps de les corriger ou mettre à jour sur le circuit additionnel des données ouvertes. La vraie clé est de développer les incitations et faire en sorte que les plateformes open data soient les solutions internes. Ce qu’il manque aux administrations c’est de manger leurs propres données sur le modèle : Eat your own dogfood !

Dog Food 2

Le dogfooding (aussi appelé Eating your own dog food en anglais), traduit littéralement par « manger sa propre nourriture pour chien », est une expression désignant l’utilisation de ses propres produits et services afin de se confronter directement à ses qualités et défauts.

Source: Wikipédia

Le dogfooding est un terme d’argot utilisé par les ingénieurs d’une entreprise qui utilisent leur propre produit ou accèdent à leurs données par leurs propres API publiques. Le dogfooding permet ainsi aux agents d’aborder leurs données sous la même perspective que les utilisateurs externes. Il fournit surtout une incitation à rendre le service hautement fonctionnel.

Manger ses propres données, sur le modèle dogfooding, est la règle d’or de plateformes qui se développent par un écosystème. Or actuellement les plateformes open data françaises violent de manière flagrante cette règle essentielle. Combien d’administrations publiques utilisent uniquement leurs plateformes open data pour accéder et partager leurs données ouvertes (hors SIG) ?

Sur Nantes, après le gros travail d‘intégration des noms des rues sur OSM, les contributeurs d’Openstreetmap ont fourni à la métropole la liste des erreurs constatées sur le terrain et les corrections du jeu de données publiques. La réponse des agents a été que leur base était bien à jour en interne, seul le jeu en open data n’était pas correcte. La base publique a été mise à jour plusieurs mois plus tard.

Le rapport Deloitte sur le bilan du projet open data du département de Loire-Atlantique pointe d’ailleurs la dissociation que font les agents entre leurs jeux de données internes, fruit de leur travail et maintenu à jour, et les jeux publiés en open data qui passent par des « moulinettes » de formatage détériorant la qualité de certains jeux. Les données ouvertes sont des données orphelines.

Les acteurs internes n’utilisent actuellement pas la plateforme open data pour accéder à leurs propres données ou aux données d’autres services. Ils n’expriment pas de besoin particulier d’ accéder à d’autres données que celles dont ils disposent dans leurs outils actuels. Il est à noter que la plateforme open data n’a pas la vocation de devenir un outil d’échange entre les services .

Département de Loire-Atlantique, Open Data 44 Evaluation de la démarche Open Data (Deloitte, juin 2014)

Le résultat de tout cela, c’est que le public ne bénéficie pas des données correctes, améliorées et mises à jour. En outre, si les données qualifiées sont déjà échangées entre services, c’est qu’elles ont une valeur d’usage qui peut profiter aux acteurs externes or ce sont celles-là précisément qui ne sont pas ouvertes ! Ce sont ces données qui doivent être libérées en priorité et les plateformes open data ne devraient plus représenter que le seul outil possible pour le partage des données inter-services. Tant que les portails open data ne feront pas partie du process de flux des données internes, ils ne pourront pas être fonctionnels et il ne faudra pas attendre que des entreprises misent leur développement sur des projets fantômes.

Tim O’Reilly aime présenter l’exemple d’Amazon comme modèle pour le concept de gouvernement plateforme. Comment l’accès à ses données et ses API a permis le développement d’un écosystème de valorisateurs de ses services. C’est un modèle efficace mais Amazon n’a pas démarré son développement sur un modèle de plateforme, Amazon est devenu une plateforme sur décision de la direction, une fois que l’entreprise était déjà bien établie. La direction a pris les mesures suivantes :

  1. Toutes les équipes vont désormais exposer leurs données en ligne grâce à des interfaces de service.
  2. Les équipes doivent communiquer entre-elles à travers ces interfaces.
  3. Il n’y aura pas d’autre forme de communication permise entre services : pas de lien directe, pas d’arrière-portes. La seule communication autorisée est celle via des appels API.
  4. Toutes les interfaces de services, sans exception, doivent être conçues dès le départ pour être externalisables. Les équipes doivent concevoir les outils pour être en mesure d’exposer leur travail. Pas d’exception.
  5. Toute personne qui ne suit pas ces recommandations sera congédiée.
  6. Je vous remercie; bonne journée!

Cet article explique les transformations lentes et douloureuses pour évoluer d’une société de produit vers une société de service. Mais cette transformation a créé une structure de renom international adaptée au contexte numérique. Si l’on veut continuer à voir les administrations françaises évoluer vers l’adaptation au contexte numérique, il va falloir qu’elles commencent à traiter les acteurs extérieurs comme les agents publics, avec le même souci d’efficacité, d’exigence qualitative et les mêmes interfaces.

Attention, il ne s’agit pas ici de considérer que les administrations publiques doivent devenir des Amazon. Il s’agit de profiter d’expériences réussies de transition vers l’ère numérique et de méthodes, ici le dogfooding, pour les adapter au contexte public. Pour être plus efficace avec autant voire moins de moyens, le service public doit pouvoir s’appuyer sur des ressources externes et développer un écosystème sur le modèle des plateformes. Mais comment attendre d’acteurs externes qu’ils se branchent sur un circuit que les agents internes ne veulent même pas exploiter ? Si les organismes publics veulent pouvoir profiter d’écosystèmes de valorisation de leurs données, il va falloir commencer par consommer leurs propres données et donc considérer les plateformes open data comme le seul outil de circulation des flux, internes comme externes.

Puisqu’il s’agit de profiter de l’ouverture des données comme levier de modernisation de l’action publique, assurons nous d’utiliser tous les mêmes outils et de développer les incitations d’accès aux données hautement qualifiées dont nous avons besoin. Il est temps désormais de manger ses propres données.

 

 

Medio asomado

 

Quelques suggestions pour un pilote de Dogfood public

  1. Identifier les données les plus partagées entre services internes et organisations partenaires. Certaines sont probablement échangées par email, sous forme de bases de données ou parfois API sophistiqués. La méthode d’échange importe peu.
  2. Avec une équipe transversale d’agents mais également d’acteurs extérieurs réutilisateurs de données, prioriser les données pour l’ouverture.
  3. Travailler avec les agents pour créer les interfaces nécessaires à l’accès aux données. L’interface doit être conçue de manière à pouvoir être rendue publique.
  4. Lorsque les interfaces sont créées, annoncer que tous les échanges de données ne se feront plus que par ce biais.
  5. Garantissez l’accès ouvert à l’interface et à sa documentation

 

 Ce billet est une libre adaptation au contexte français de l’article « Hey Uncle Sam, Eat Your Own Dogfood! » publié par Anthea Watson Strong, avec l’aimable et souriante autorisation de son auteure.

 

 

Le développement d’une chaîne de valeur autour de la réutilisation des données et l’ouverture des données publiques est un axe majeur de la politique numérique de la Commission Européenne. Elle a ainsi engagé une révision de la directive sur la réutilisation des données publiques ou encore facilité l’accès à ses propres données.

Pourtant en avril 2014, l’italien Alberto Cottica interpellait la Commission et regrettait sur son blog qu’il n’y ait pas de communauté open data constituée au niveau européen. Les acteurs ne se connaissent pas, ne connaissent pas les solutions en présence, ils travaillent de manière isolée et développent des standards locaux et des projets redondants.

Le décloisonnement des actions par l’échange d’expériences, du type Erasmus, ne permettrait-il pas de développer des projets moins coûteux, plus efficaces et de partager les bonnes pratiques de manière plus fluide ? Des actions peuvent être menées au niveau européen pour peu que volonté et vision coïncident.

Début septembre, nous avons profité de la Nantes Digital Week pour prendre la proposition au mot et réunir des activistes européens pour coproduire une série de proposition concrètes visant à dynamiser une communauté européenne.

team

Les productions d’Erasmus Open Data

Organisé par Libertic avec Atlantic2, Epsiplatform et Spaghetti Open Data, l’évènement Erasmus Open Data s’est tenu du 13 au 16 septembre sur Nantes et s’est déroulé en trois phases.

1. Les problèmes

La première journée consistait à faire connaissance, découvrir l’état des lieux dans chacun des pays représentés (Lituanie, Portugal, Pays-Bas, Royaume-Uni, Hongrie…) et les actions et projets des communautés en présence (Open Data Manchester, Transparency International, …) et répondre à la question « Pourquoi aurions-nous besoin d’une communauté européenne de l’open data » ?

Team erasmus 2

Résultat du premier jour de production, le manque de connexions génère :

  • Méconnaissance des projets respectifs
  • Fragmentation des initiatives (standards locaux)
  • Duplication des projets et coûts associés
  • Taille de marché au national donc limité
  • Opportunités manquées de développement
  • Illisibilité dans la diversité des initiatives européennes en faveur de l’open data
  • Manque de réutilisation des données européennes
  • Retard de compétences dans certains pays par rapport aux plus avancés
  • Manque d’opportunités de travaux collaboratifs

Chacun de ces éléments représentent des faiblesses sur lesquelles les communautés locales et nationales de l’open data peuvent agir. Mais de nombreuses questions sont induites: Qu’est-ce qu’une communauté européenne de l’open data ? Une communauté qui réutilise les données de l’U.E. et/ou qui réside en Europe ? Les chapitres de l’Open Knowledge Fundation ou l’Open Data Institute à travers l’Europe ne constituent-ils pas déjà une communauté européenne ?

Après échanges, l’accord a été qu’une communauté open data européenne est une communauté qui agit sur l’échelon européen, au bénéfice des habitants ou institutions européennes, soit en travaillant sur les données de la Commission, soit en réutilisant les données de divers pays/villes européens. Dans ces deux cas, l’identité et les frontières européennes sont un élément constitutif de l’action. Or les réseaux existants sont mondiaux avant que d’être européens et ils visent à favoriser le déploiement de leurs propres projets plutôt que des initiatives extérieures.
Finalement, c’est la citation d’un discours de Neelie Kroes assurant son soutien à l’initiative Erasmus Open Data qui a guidé la réflexion sur les objectifs d’une communauté européenne:

« Nous voulons travailler avec vous et vous voir travailler ensemble à travers les frontières et les langues. » Neelie Kroes, OKFest 2014.

2. Des idées

Comment mieux travailler ensemble, coproduire des projets et générer des connexions à l’échelle européenne ? La seconde journée d’Erasmus Open Data a été consacrée à l’identification d’actions concrètes envisageables, au-delà des soutiens aux hackathons internationaux durant lesquels chaque équipe travaille de manière isolée et localement, et au-delà des programmes européens existants ne permettant pas l’échange de compétence sur les données de manière transversale. Comment faire en sorte que des projets tels que OpenPompei, qui répondent au souci de de transparence sur les données archéologiques, soient plus connus et développés, sachant qu’ils répondent à des problèmes rencontrés communément dans différents pays d’Europe ?

  • Galerie d’initiatives pour la mise en valeur des projets et organisations
  • Guichet unique d’accès à la liste des appels et programmes européens open data
  • Évènement annuel de promotion des échanges et connexions
  • Appels européens à usage thématique de données (corruption, environnement…)
  • Internats européens au sein d’organisations open data
  • Animations basée sur le dynamisme des relais locaux (bottom-up)

Des scénarios d’usages ont ensuite été développés pour décrire concrètement l’expérience des participants à ce type d’actions Erasmus et échanges européens. (Visualisations en cours et description sur ces notes collaboratives en ligne)

team 3

3. Une lettre ouverte

Comme dans tout processus collaboratif, ce n’est pas tant les solutions proposées qui représentent une avancée mais le cheminement et les discussions qui ont mené à ces conclusions (slides présentés lors de l’évènement disponibles ici)

Au final, le rapprochement de ce collectif d’individus mobilisés autour de l’action commune Erasmus Open Data a déjà créé des liens et projets transnationaux en devenir, preuve que les rencontres stimulent les coproductions et favorisent le développement de projets et la résolution de problèmes à l’échelle européenne. Nous avons donc besoin de plus d’opportunités d’échanges et de coproduction qui bénéficient au public européen comme à l’Europe et la Commission Européenne dispose de programmes qui permettent de mener des actions en faveur de ce rapprochement pour peu qu’une volonté politique soit affichée en ce sens. Or celle-ci doit être plébiscitée par la communauté.

Pour prolonger et pérenniser cette expérience, nous co-rédigeons actuellement en ligne une lettre ouverte que nous adresserons à la Commission Européenne en lui proposant d’engager des actions concrètes en faveur du développement d’une communauté européenne de l’open data, engagée à travailler à l’international et partager expériences et bonnes pratiques pour faciliter le développement de projets.

Contribuez à la Lettre Ouverte

Vous êtes invités à contribuer et co-signer cette lettre ou inscrire votre territoire sur la liste des lieux intéressés pour accueillir des experts open data européens !