Nos références


OSRD : éditeur ferroviaire open source

Nous accompagnons les équipes du projet OSRD en participant au développement d'une application web Open Source rassemblant divers outils d'édition et de gestion d'une infrastructure ferroviaire. Nous intervenons plus particulièrement sur les interfaces web permettant l'édition de l'infrastructure dans un outil cartographique avancé. Nous intervenons également sur certaines briques de visualisation comme le graphique espace-temps.

Si ce projet est centré pour le moment sur l'infrastructure française il a pour vocation à terme à être utilisable dans d'autres contextes. Il fait à ce titre partie de la OpenRail Association qui coordonne les efforts transnationaux de convergence des outils open source ferroviaires.

Un projet de Code et Données ouvertes

  • Industrie
  • JavaScript
  • MapLibre
  • React
  • TypeScript
  • L'éditeur d'infrastructure dans OSRD permet de modifier les méta-données des différents éléments d'infrastructure (sections de ligne, signaux, aiguillages...), ou encore de corriger les erreurs d'imports des données d'infrastructure.

  • La vue "warpée" permet d'enrichir les graphiques espaces temps classiques de la SNCF, avec des données d'infrastructure exhaustives, ou encore du contexte géographique grâce aux données OpenStreetMap.

  • L'éditeur d'infrastructure permet aussi d'explorer les anomalies d'infrastructure, qui empêchent de faire des simulations correctes. Ces anomalies peuvent ensuite être corrigées manuellement, ou souvent automatiquement.

Une nouvelle version de GraphCommons

Depuis 2021, nous développons et maintenons pour GraphCommons leur plateforme web de cartographie, d'analyse et de partage de données-réseaux. Ce projet a sollicité toute notre expertise en réseaux - de la modélisation et des bases de données jusqu'à la visualisation, ainsi qu'en développement web. Nous avons ainsi intégré Neo4j côté données, ainsi que sigma.js et graphology côté client. Le site est basé sur Next.js et React. Nous continuons à développer régulièrement de nouvelles fonctionnalités, tout en maintenant l'application.

Un projet de Conseils et accompagnement

  • JavaScript
  • Graphology
  • React
  • Neo4j
  • Visualisation de données
  • DevOps
  • Architecture
  • Dans un grand graphe sur la 'dataviz', le nœud 'Benjamin Ooghe-Tabanou' est sélectionné. Ses voisins sont mises en évidence sur le graph et dans le panneau de droite qui présente également les attributs du nœud.

  • La fonctionnalité payante 'Hub' permet de créer de multiples vues sur une même graphe de connaissance. Sur cet écran nous créons une vue à partir d'une recherche de chemins allant des universités aux outils en passant par les personnes.

  • Une vue permet d'isoler une partie du graphe de connaissance d'un Hub. Le panneau de droite contient sur cet écran la légende des choix de couleurs reflétant le modèle de données du graphe.

HOPPE-Droit

Explorer une collection d'ouvrages pédagogiques en droit français du XIXe-XXe siècles

HOPPE-Droit vise à l’élaboration et la publication d'une collection de notices bibliographiques de productions pédagogiques en droit des XIXe et XXe siècles. Nous avons conçu et développé un outil d’exploration qui permet d’étudier les évolutions du droit français à travers les manuels utilisés pour son enseignement depuis le XIXe siècle.

Le corpus est édité par l'équipe CUJAS dans la base de données Heurist. Ces données sont exportées par l'API et indexées dans un ElasticSearch en prenant soin de conserver la complexité des dates aux différents niveau de précision (date annuelle, au jour près) et d'incertitude. Une application web permet d'explorer et visualiser le corpus sous différents angles: productions, auteurs, éditeurs, réseaux de co-publication, généalogies...

Un projet de Développement sur-mesure

  • Humanités numériques
  • Visualisation de données
  • Conception
  • ElasticSearch
  • React
  • Heurist
  • Sigma.js
  • Recherche par facettes des auteurs de la collection

  • Réseau auteurs-éditeurs liés par leurs productions pédagogiques communes

  • Généalogie d'un éditeur retraçant les association, acquisition...

Explorer les professions de foi des élections de la Ve République

Depuis 2013, la Bibliothèque de Sciences Po pilote la mise en ligne des archives électorales réunies par le Centre de recherches politiques (CEVIPOF) et désormais conservées au Département archives de la Bibliothèque : un fonds unique de professions de foi de candidats aux élections (législatives, mais aussi présidentielles, européennes, etc.) depuis 1958.

Après l'avoir publié sur Internet Archive, la Bibliothèque de Sciences Po nous a confié la conception et le développement sur-mesure d'une application d'exploration du corpus, afin d'exploiter la très riche indexation de plus de trente mille documents. Nous avons développé une application web qui permet de filtrer les professions de foi par élection, circonscription, groupe politique, profil des candidat⋅e⋅s...

Les résultats du filtrage peuvent ensuite être explorés en listes, en visualisations de données ou téléchargeables en CSV. Enfin le document original est consultable grâce au lecteur fourni par Internet Archive. Ainsi les choix d'indexation faits par les bibliothécaires et archivistes du projet peuvent être confrontés au document source.

Un projet de Valorisation de données

  • Humanités numériques
  • JavaScript
  • React
  • TypeScript
  • ElasticSearch
  • Un moteur de recherche par facettes de professions de foi des candidat⋅e⋅s aux élections législatives.

  • Répartition visuelle des documents sélectionnés par année et par département.

  • Visualisation des profils des candidat⋅e⋅s: pyramide des âges, professions, soutiens...

  • Pour une profession de foi, les métadonnées peuvent être comparées au document original hébergé par Internet Archive.

Configuration management database

Exploration d'une CMDB à l'aide de réseaux égocentrés

Un des plus grands groupes industriels français possédant l'intégralité de son système informatique (CMDB) dans une base Neo4j, avait besoin d'une interface d'exploration de son infrastructure.

L'application se compose d'un moteur de recherche, et d'une page pour chaque noeud du graphe, présentant son voisinage et ses métadonnées. Pour avoir un moteur de recherche efficace (tolérance d'erreurs, recherche sur différents champs), nous avons indexé les données dans un ElasticSearch.

L'interface est développée avec Angular, et Node pour l'API - le tout avec TypeScript.

Un projet de Développement sur-mesure

  • Industrie
  • Neo4j
  • ElasticSearch
  • Angular
  • Sigma.js
  • Page de recherche, à travers les différents types de noeuds

  • Page d'un noeud, avec son réseau égocentré, la liste de ses voisins directs et ses métadonnées

  • Exploration des réseaux en plein écran

Renouveler notre compréhension des paysages sonores urbains

The LASSO platform est une plateforme web publiant des jeux de données spatio-temporel décrivant des paysages sonores. Ces jeux de données ont été produits en collaboration par des équipes de recherche de l'Université de Gustave Eiffel et de l'Université de Cergy-Pontoise. Cette plateforme vise à présenter les avantages de la cartographie des paysages sonores qui propose une approche perceptive beaucoup plus fine que les cartes de bruits standards. Elle fournit aux chercheurs et décideurs des jeux de données exclusifs ainsi qu'un démonstrateur des potentiels d'analyse de cette approche.

Cette plateforme a pour ambition de participer à une meilleure compréhension du rôle que les paysages de données ont à jouer dans la construction des environnements urbains de demain.

Nous avons conçu et développé cette plateforme en une application react sans serveur utilisant la technologie de cartographie vectorielle MapLibre.

Un projet de Valorisation de données

  • MapLibre
  • TypeScript
  • React
  • JavaScript
  • La plateforme LASSO propose d'explorer plusieurs paysages sonores créés par les chercheurs du projet.

  • Deux cartes sont synchronisées pour faciliter la comparaison de variables: 'agrément' à gauche, niveaux de bruits standards à droite.

  • Pour chaque point de la carte, on retrouve les valeurs des variables composant le paysage sonore : temps de présence d'oiseaux, du traffic, de voix, niveau sonore et les deux variables émotionnelles agrément et animation.

Bibliograph

Bibliograph est un outil en ligne que nous avons créé avec et pour Tommaso Venturini dans le but d'équiper ses recherches sur les dynamiques des communautés scientifiques. Notre mission consistait à reproduire une méthode d'analyse par co-références déjà implémentées en python dans un outils en ligne allant jusqu'à l'exploration visuelle des réseaux produits. Une contrainte très forte de temps nous a poussé à choisir de réaliser ce projet en un atelier intensif colocalisé avec le client. En naviguant entre idées et contraintes à l'aide d'une méthode agile nous sommes parvenu à produire un outil simple et efficace de scientométrie conforme au besoin en un temps très court.

Un projet de Valorisation de données

  • Humanités numériques
  • Analyse visuelle
  • Conception
  • JavaScript
  • React
  • TypeScript
  • Sigma.js
  • Graphology
  • Première étape: importer un corpus au format CSV.

  • Après parsing et indexation: définition des filtres.

  • Enfin, le réseau de co-référence avec des noeuds de métadonnées est visualisé.

La numérisation de la vie quotidienne pendant la pandémie

Nous avons développé une application web qui permet à une équipe de recherche d'analyser un corpus d'observations ethnographiques en permettant de naviguer et qualifier le matériel collecté. Ce corpus a été collecté pendant le confinement lié au COVID-19 entre avril et juin 2020 au Danemark. Il contient 222 entretiens, 84 journaux, et 89 observations de terrain.

Cette étude fait partie du projet "The Grammar of Participation: The Digitization of Everyday Life During the Corona Crisis" qui a été mené par des chercheurs du Centre for Digital Welfare de la IT University of Copenhagen et du Techno-Anthropology Lab de la University of Aalborg.

Cet outil n'est pas accessible publiquement. L'accès aux données est réservé à l'équipe de recherche. Les copies d'écran ci-dessous ont été réalisé avec de fausses données.

Un projet de Valorisation de données

  • Humanités numériques
  • JavaScript
  • React
  • TypeScript
  • ElasticSearch
  • Un moteur de recherche de passage d'entretiens et d'observations de terrain

  • Chaque document du corpus a sa propre page web.

  • Les documents ont été découpés en segment. Chaque segment peut être référencé et qualifié par des tags.

Exposition-test

Spécifications de l'infrastructure de données d'une exposition interactive

Nous avons conçu l'infrastructure des données d'une exposition observant ses visiteurs : spécifications des flux de données depuis les systèmes de captation, jusqu'aux mur-écrans projetant les visualisations en passant par les processus d'analyse, d'archivage et de rendus graphiques.

L'exposition ayant été annulée à cause de l'épidémie de COVID-19, nous n'avons pas pu passer en production pour le moment.

Un projet de Conseils et accompagnement

  • Humanités numériques
  • Données temps réel
  • Visualisation de données
  • Conception
  • Architecture
  • Extrait du schéma de l'infrastucture de données

  • Extrait du schéma de l'infrastucture physique

Hyphe

Indexation de contenu web et déploiement automatisé sur OpenStack

Hyphe est un crawler web conçu pour les chercheurs en sciences sociales, et développé par le médialab de Sciences-Po.

Nous y avons ajouté les fonctionnalités suivantes :

  • Indexation textuelle automatique des corpus web par extraction puis indexation multiprocess des contenus dans ElasticSearch
  • Déploiement automatique de serveurs Hyphe chez des hébergeurs compatibles OpenStack

Un projet de Code et Données ouvertes

  • Humanités numériques
  • Python
  • ElasticSearch
  • JavaScript
  • DevOps
  • OpenStack
  • Tests fonctionnels du processus d'indexation

  • Configuration du serveur Hyphe à déployer (Hyphe Browser)

  • Choix des capacités du serveur cloud à déployer (Hyphe Browser)

Sous-traitant Neo4j

Nous intervenons pour le compte de Neo4j chez plusieurs de leurs clients pour les assister dans leurs projets de graphes. Cela va de la mission d'expertise sur Neo4j ou de chargement et/ou de visualisation de données, à la réalisation d'innovation labs, de prototypes, voire de projets web complets.

Un projet de Conseils et accompagnement

  • Neo4j
  • Visualisation de données
  • Conception

Paiement en ligne et e-commerce

Nous avons participé au développement du tunnel de paiement d'un des plus gros sites français de e-commerce, en Clojure et ClojureScript.

Un projet de Conseils et accompagnement

  • Industrie
  • Clojure
  • ClojureScript
  • Performance Web

RadioPolice

Analyse visuelle et extraction sémantique des thèmes d'un corpus de tweets

En réponse à un besoin d'analyse sémantique d'un corpus de tweets, nous avons mis en place une chaîne d'extraction de thèmes de ce corpus, par analyse des cooccurrences et filtrage de tokens par CHI². Nous avons également sorti un outil en ligne pour explorer les communautés thématiques, sous forme de réseaux de cooccurrences des termes.

Dans le cadre de la publication du corpus par David Dufresne et le journal Mediapart, nous avons ensuite proposé l'usage d'ElasticSearch et Kibana pour former des requêtes correspondant à chacun des thèmes définis par l'équipe éditoriale, et aggréger les indicateurs représentés dans l'interface finale conçue et développée par WeDoData, Etamin Studio et Philippe Rivière / Visions carto.

Un projet de Valorisation de données

  • Journalisme de données
  • Python
  • Traitement Automatique de la Langue
  • Science des données
  • Analyse visuelle
  • ElasticSearch
  • Kibana
  • Réseaux de cooccurrences de termes du thème "(il)légitimité"

  • Voisins de "palet" dans le réseau de cooccurrence des termes significatifs

  • Construction du thème "outrage" à l'aide d'une requête dans Kibana

RICardo

RICardo est un projet de recherche dédié au commerce entre les nations, de la Révolution industrielle à la veille de la Seconde Guerre mondiale.

Nous avons amélioré l'application web existante :

  • Refonte des visualisations existantes
  • Nouvelles visualisations des taux de change et des statuts politiques
  • Ajout de permaliens avec les paramètres des visualisations sur toutes les pages

Lire notre post de blog "De nouvelles visualisations pour RICardo" pour découvrir les détails de cette prestation.

Un projet de Valorisation de données

  • Humanités numériques
  • Visualisation de données
  • Conception
  • JavaScript
  • AngularJS
  • Cette frise incite à considérer le contexte géopolitique dans l'analyse du commerce

  • Utilisation d'une heatmap pour comparer l'importance relative des partenaires commerciaux

  • Exploration de la base de taux de change par des small-multiples

Tableaux de bords de suivi de production

Développement de plugins métier pour Kibana

Notre client, un acteur industriel, voulait distribuer des tableaux de bord dans un de leur produit. Après une brève étude, Kibana a semblé la meilleure option, mais manquait certaines fonctionnalités.

Nous avons développé un plugin pour Kibana avec ces fonctionnalités (intégration des tableaux de bords dans une page sur mesure, styles personnalisés).

Un projet de Conseils et accompagnement

  • Industrie
  • Kibana
  • ElasticSearch
  • Tableau de bord

TOFLIT18

TOFLIT18 est un outil d'exploration visuelle du commerce par marchandise de la France au XVIIIe siècle. Nous avons amélioré cet outil créé par le médialab de Sciences Po en optimisant les requêtes Neo4j et en ajoutant une table de données de flux de commerce ainsi qu'un système de permaliens.

Un projet de Code et Données ouvertes

  • Humanités numériques
  • Neo4j
  • JavaScript
  • React
  • Les flux de commerce exportés depuis Nantes entre 1720 et 1780

  • Optimisation du calcul du taux de couverture des classifications

  • Le permalien du réseau de termes des exports de Nantes au XVIIIe siècle

Vous souhaitez voir plus en détails notre offre ?

Découvrez nos services