Feeds:
Articles
Commentaires

Posts Tagged ‘plateforme’

Cela fait plus de cinq ans que Tim O’Reilly a publié son pamphlet Open Government.sur le Gouvernement Plateforme. Depuis, nous avons vu l’ouverture des données publiques gagner en popularité et intégrer les mœurs. L’Etat comme des collectivités locales à travers la France ont développé des plateformes d’accès aux données publiques. Ils ont posé avec succès les bases d’un nouveau type d’administration ouverte qui ouvre ses interfaces et mobilise un écosystème de réutilisateurs. Cependant, il semble que ces nouvelles pratiques se soient arrêtées en plein milieu de ce chemin vers un gouvernement ouvert, un gouvernement plateforme.

Il est encore difficile d’intégrer les données publiques ouvertes dans des services commerciaux tant la qualité et mise à jour des données laissent à désirer. La diversité de structuration et formats des données que l’on retrouve sur une même plateforme est préjudiciable à l’usage et certaines données sont carrément inutilisables. Notamment celles qui n’ont pas été mises à jour depuis leur première publication et qui sont désormais obsolètes. Lorsque la documentation existe, elle est souvent partielle ou incompréhensible.

 

Il est difficile de mesurer l’impact d’une démarche d’ouverture mais nous pouvons dire sans hésiter que le nombre de personnes qui a pu bénéficier des données ouvertes est bien moins conséquent que ce que nous étions en droit d’attendre. Bien sûr nous pouvons applaudir les avancées, sur le nombre de jeux publiés et sur l’accès (partiel) à des données fermées jusque là tel que le prix des carburants ou les informations nutritionnelles, bien. Cependant, si nous voulons avancer au-delà du seul processus de la publication pour le nombre, il convient de se concentrer sur la qualité des données plutôt que la quantité.

Le vrai dilemme derrière ce problème de qualité des données, c’est que les personnes qui ont le pouvoir pour les améliorer ne sont pas incitées à le faire. Les agents de l’administration, qui font un travail considérable bien souvent en sous effectif et avec peu de moyens, sont pour beaucoup convaincus des bienfaits de la transparence et et de l’accès à leurs données. Mais aujourd’hui l’open data représente une charge supplémentaire plutôt qu’une solution à leurs problèmes quotidiens. Lorsque les données deviennent obsolètes ou doivent être corrigées, quelqu’un doit prendre le temps de les corriger ou mettre à jour sur le circuit additionnel des données ouvertes. La vraie clé est de développer les incitations et faire en sorte que les plateformes open data soient les solutions internes. Ce qu’il manque aux administrations c’est de manger leurs propres données sur le modèle : Eat your own dogfood !

Dog Food 2

Le dogfooding (aussi appelé Eating your own dog food en anglais), traduit littéralement par « manger sa propre nourriture pour chien », est une expression désignant l’utilisation de ses propres produits et services afin de se confronter directement à ses qualités et défauts.

Source: Wikipédia

Le dogfooding est un terme d’argot utilisé par les ingénieurs d’une entreprise qui utilisent leur propre produit ou accèdent à leurs données par leurs propres API publiques. Le dogfooding permet ainsi aux agents d’aborder leurs données sous la même perspective que les utilisateurs externes. Il fournit surtout une incitation à rendre le service hautement fonctionnel.

Manger ses propres données, sur le modèle dogfooding, est la règle d’or de plateformes qui se développent par un écosystème. Or actuellement les plateformes open data françaises violent de manière flagrante cette règle essentielle. Combien d’administrations publiques utilisent uniquement leurs plateformes open data pour accéder et partager leurs données ouvertes (hors SIG) ?

Sur Nantes, après le gros travail d‘intégration des noms des rues sur OSM, les contributeurs d’Openstreetmap ont fourni à la métropole la liste des erreurs constatées sur le terrain et les corrections du jeu de données publiques. La réponse des agents a été que leur base était bien à jour en interne, seul le jeu en open data n’était pas correcte. La base publique a été mise à jour plusieurs mois plus tard.

Le rapport Deloitte sur le bilan du projet open data du département de Loire-Atlantique pointe d’ailleurs la dissociation que font les agents entre leurs jeux de données internes, fruit de leur travail et maintenu à jour, et les jeux publiés en open data qui passent par des « moulinettes » de formatage détériorant la qualité de certains jeux. Les données ouvertes sont des données orphelines.

Les acteurs internes n’utilisent actuellement pas la plateforme open data pour accéder à leurs propres données ou aux données d’autres services. Ils n’expriment pas de besoin particulier d’ accéder à d’autres données que celles dont ils disposent dans leurs outils actuels. Il est à noter que la plateforme open data n’a pas la vocation de devenir un outil d’échange entre les services .

Département de Loire-Atlantique, Open Data 44 Evaluation de la démarche Open Data (Deloitte, juin 2014)

Le résultat de tout cela, c’est que le public ne bénéficie pas des données correctes, améliorées et mises à jour. En outre, si les données qualifiées sont déjà échangées entre services, c’est qu’elles ont une valeur d’usage qui peut profiter aux acteurs externes or ce sont celles-là précisément qui ne sont pas ouvertes ! Ce sont ces données qui doivent être libérées en priorité et les plateformes open data ne devraient plus représenter que le seul outil possible pour le partage des données inter-services. Tant que les portails open data ne feront pas partie du process de flux des données internes, ils ne pourront pas être fonctionnels et il ne faudra pas attendre que des entreprises misent leur développement sur des projets fantômes.

Tim O’Reilly aime présenter l’exemple d’Amazon comme modèle pour le concept de gouvernement plateforme. Comment l’accès à ses données et ses API a permis le développement d’un écosystème de valorisateurs de ses services. C’est un modèle efficace mais Amazon n’a pas démarré son développement sur un modèle de plateforme, Amazon est devenu une plateforme sur décision de la direction, une fois que l’entreprise était déjà bien établie. La direction a pris les mesures suivantes :

  1. Toutes les équipes vont désormais exposer leurs données en ligne grâce à des interfaces de service.
  2. Les équipes doivent communiquer entre-elles à travers ces interfaces.
  3. Il n’y aura pas d’autre forme de communication permise entre services : pas de lien directe, pas d’arrière-portes. La seule communication autorisée est celle via des appels API.
  4. Toutes les interfaces de services, sans exception, doivent être conçues dès le départ pour être externalisables. Les équipes doivent concevoir les outils pour être en mesure d’exposer leur travail. Pas d’exception.
  5. Toute personne qui ne suit pas ces recommandations sera congédiée.
  6. Je vous remercie; bonne journée!

Cet article explique les transformations lentes et douloureuses pour évoluer d’une société de produit vers une société de service. Mais cette transformation a créé une structure de renom international adaptée au contexte numérique. Si l’on veut continuer à voir les administrations françaises évoluer vers l’adaptation au contexte numérique, il va falloir qu’elles commencent à traiter les acteurs extérieurs comme les agents publics, avec le même souci d’efficacité, d’exigence qualitative et les mêmes interfaces.

Attention, il ne s’agit pas ici de considérer que les administrations publiques doivent devenir des Amazon. Il s’agit de profiter d’expériences réussies de transition vers l’ère numérique et de méthodes, ici le dogfooding, pour les adapter au contexte public. Pour être plus efficace avec autant voire moins de moyens, le service public doit pouvoir s’appuyer sur des ressources externes et développer un écosystème sur le modèle des plateformes. Mais comment attendre d’acteurs externes qu’ils se branchent sur un circuit que les agents internes ne veulent même pas exploiter ? Si les organismes publics veulent pouvoir profiter d’écosystèmes de valorisation de leurs données, il va falloir commencer par consommer leurs propres données et donc considérer les plateformes open data comme le seul outil de circulation des flux, internes comme externes.

Puisqu’il s’agit de profiter de l’ouverture des données comme levier de modernisation de l’action publique, assurons nous d’utiliser tous les mêmes outils et de développer les incitations d’accès aux données hautement qualifiées dont nous avons besoin. Il est temps désormais de manger ses propres données.

 

 

Medio asomado

 

Quelques suggestions pour un pilote de Dogfood public

  1. Identifier les données les plus partagées entre services internes et organisations partenaires. Certaines sont probablement échangées par email, sous forme de bases de données ou parfois API sophistiqués. La méthode d’échange importe peu.
  2. Avec une équipe transversale d’agents mais également d’acteurs extérieurs réutilisateurs de données, prioriser les données pour l’ouverture.
  3. Travailler avec les agents pour créer les interfaces nécessaires à l’accès aux données. L’interface doit être conçue de manière à pouvoir être rendue publique.
  4. Lorsque les interfaces sont créées, annoncer que tous les échanges de données ne se feront plus que par ce biais.
  5. Garantissez l’accès ouvert à l’interface et à sa documentation

 

 Ce billet est une libre adaptation au contexte français de l’article « Hey Uncle Sam, Eat Your Own Dogfood! » publié par Anthea Watson Strong, avec l’aimable et souriante autorisation de son auteure.

 

 

Read Full Post »

Et de deux ! Après Rennes, la ville de Paris a lancé sa plateforme de données publiques  Opendata.paris.fr le 27 janvier.

Avec cette plateforme, c’est toute la France qui découvre désormais l’opendata. L’annonce reprise dans les media nationaux confère au mouvement une large visibilité et une assise nationale. On sort du cadre expérimental rennais, l’ouverture devient un courant national.

LA PLATFORME PARISIENNE

L’objectif affiché par la Ville de Paris :

  • les chercheurs peuvent y trouver matière à nourrir leurs travaux et expériences
  • les développeurs peuvent créer des services innovants utilisant ces données
  • les citoyens et journalistes y trouvent des informations brutes
  • les entreprises peuvent fournir une valeur ajoutée à ces données, et ainsi créer de l’emploi et de la richesse pour la collectivité

C’est dans cet esprit d’innovation ouverte que le Conseil de Paris avait voté la délibération du 14 décembre 2010 et validé l’ouverture.

La licence

Paris est la première ville en France à adopter la licence OdbL, licence libre et internationale permettant une réutilisation gratuite des données, y compris à des fins commerciales.

Les contreparties :

  • Licence valable pour un an
  • Obligation de citer la source des données
  • Obligation de redistribuer sous la même licence, donc gratuitement

Il s’agit d’un équivalent de la licence Créative Commons by-sa, adaptée aux bases de données. Les entreprises qui ne souhaiteraient pas se soumettre à cette condition de partage à l’identique pourront souscrire une licence payante non-exclusive.

A noter que la version initiale de la licence parisienne n’autorisait pas la réutilisation commerciale gratuite des données (voir les délibération des 7 et 8 juin 2010) mais grâce au concours de Regards Citoyens et Veni Vidi Libri,  la ville s’est finalement prononcée pour l’adaptation de l’ODbl en droit français.


Les données

Le site permet d’accéder à 19 bases de données publiques classées sous 6 thématiques :

  • Citoyenneté : résultats d’élection, cartes des bureaux de vote, cartes électorales, décès, mariages, naissances, répertoire des prénoms déclarés
  • Urbanisme : fonds de cartes des plans de voirie, tracés des routes, description des trottoirs
  • Déplacements : nomenclature des voies
  • Services : liste des établissements scolaires, les écoles maternelles et élémentaires, les crèches, les halte-garderies, les piscines

  • Environnement : liste des parcs et jardins, carte des arbres d’alignement, bâtiments référentiels de la flore
  • Culture : listes d’ouvrages, notices des œuvres de fonds des musées, statistiques des prêts dans les bibliothèques en 2010

Paris a donc opté pour du melting-data et de nombreux jeux de données viendront s’ajouter à ce catalogue dans les semaines et mois qui viennent, au fur et à mesure des contributions des services municipaux. A noter que certaines données sont déjà plus vivement plebiscitées que d’autres :

  • Liste des prénoms donnés à la naissance (2000 téléchargements)
  • Liste des batis (1000 téléchargements)
  • Liste des parcs et jardins (900 téléchargements)
  • Prêts dans les bibliothèque (800 téléchargements)

Au vue des thématiques, nous pourrions imaginer trois catégories de visionneurs: les développeurs dont forte communauté SIG, les archivistes et les néophytes qui se rabattaient sur des données plus compréhensibles ?

Photograĥie fournie par M. Jacques Cesbron de Cap Fifty

Les formats

  • .CSV
  • .XLS
  • .ICAL
  • .XML
  • .RTF
  • .ODT

Mais également : .ESRI, .KML, .Z3950, .TXT, .RSS, .PDF, RASTER TIFF, .REST et .ODS.

Certaines de ces données sont donc téléchargeables dans des formats informatiques courants, propriétaires (XLS pour les tableurs) ou ouverts (ODS, ODT, etc.), tandis que d’autres ne peuvent être lues qu’avec un logiciel spécialisé. Exemples: cartes et données spatiales.

Fiche d’informations et forum

Sur la fiche d’informations des données, on trouve le nombre de téléchargements effectués, les appréciations laissées par les internautes et la date de l’enregistrement. Les données sont classées grâce à un système de mots clefs, téléchargeables en quelques clics, sous réserve de l’acceptation de la licence, Le forum est une remontée de questions et contributions des internautes. Principe très efficace et utile à l’amélioration continue du site.

Les usages

Originalité de cette ouverture parisienne, les visualisations apparues dès les premiers jours du lancement. Bluenove et Mapize ont en effet mis à disposition des internautes une illustration de la valeur apportée par un travail de visualisation sur ces données publiques.

– Leur carte affiche la répartition géographique par arrondissement des différents types d’actes civils réalisés par la mairie de Paris durant l’année en cours.

– Voir également la carte des arbres de la ville.

Autre travail d’interprétation sur la liste des prénoms déclarés à l’état-civil. Un bloggeur a créé ce wordle reflétant la popularité des prénoms parisiens.

Ses commentaires :

« Le prénom préféré des parents parisiens est Gabriel sur ces 7 dernières années. Le prénom Nicolas subit un certain recul, la question est de savoir si cette courbe suit la cote de popularité du chef de l’état… »

Réaction d’un(e) internaute

clem 3 février 2011

le graphique en haut de la page http://paris.mapize.com/ est amusant car on y voit :
– l’effet fiscal sur la fréquence des mariages dans l’année : plus de mariages en juin.
– L’effet attractif des équipements de santé de Paris, où il y a plus de naissances que de reconnaissances (faites sûrement ailleurs)

La suite du commentaire de « Clem » est plus critique mais très pertinent car il (elle?) identifie les limites de la « valorisation spontanée » et les erreurs d’interprétation liées à la data-visualisation. A lire ici.

« Le reste des cartes et des graphiques n’échappe pas à l’écueil désormais classique de la néo-cartographie sur le net, depuis l’essor de GoogleMaps : des cartes jolies, bien réalisées, mais qui n’apprennent rien. Faute de représenter des informations pertinentes pour renseigner réellement le lecteur, ces cartes cartographient pour cartographier : on peut le faire, alors on le fait. »

En bref

Il ne s’agit pour l’instant que d’un site éditorial en beta qui regroupe des fichiers sans mise à disposition d’API ni interrogations pour une mise à jour en temps-réel. On attend donc les traitements automatisés et l’alimentation du catalogue en données riches qui devraient suivre ?

Malgré certains aspects relevés (limites de la datavizualisation, fautes d’orthographes sur le site), les commentaires sont plutôt encourageants et les internautes félicitent Paris pour cette démarche « qu’elle n existe nulle part ailleurs en France ».

De plus, la plateforme Opendata.Paris a un design soigné, la navigation est très agréable et intuitive y compris pour les non-initiés. On pense enfin aux usagers ! Bravo Paris!

Read Full Post »