Nos références

OSRD : éditeur ferroviaire open source

Nous accompagnons les équipes du projet OSRD en participant au développement d'une application web Open Source rassemblant divers outils d'édition et de gestion d'une infrastructure ferroviaire. Nous intervenons plus particulièrement sur les interfaces web permettant l'édition de l'infrastructure dans un outil cartographique avancé. Nous intervenons également sur certaines briques de visualisation comme le graphique espace-temps.

Si ce projet est centré pour le moment sur l'infrastructure française il a pour vocation à terme à être utilisable dans d'autres contextes. Il fait à ce titre partie de la OpenRail Association qui coordonne les efforts transnationaux de convergence des outils open source ferroviaires.

Un projet de Code et Données ouvertes

Industrie JavaScript MapLibre React TypeScript
  • L'éditeur d'infrastructure dans OSRD permet de modifier les méta-données des différents éléments d'infrastructure (sections de ligne, signaux, aiguillages...), ou encore de corriger les erreurs d'imports des données d'infrastructure.
  • La vue "warpée" permet d'enrichir les graphiques espaces temps classiques de la SNCF, avec des données d'infrastructure exhaustives, ou encore du contexte géographique grâce aux données OpenStreetMap.
  • L'éditeur d'infrastructure permet aussi d'explorer les anomalies d'infrastructure, qui empêchent de faire des simulations correctes. Ces anomalies peuvent ensuite être corrigées manuellement, ou souvent automatiquement.
  • 1 / 3

    L'éditeur d'infrastructure dans OSRD permet de modifier les méta-données des différents éléments d'infrastructure (sections de ligne, signaux, aiguillages...), ou encore de corriger les erreurs d'imports des données d'infrastructure.

    2 / 3

    La vue "warpée" permet d'enrichir les graphiques espaces temps classiques de la SNCF, avec des données d'infrastructure exhaustives, ou encore du contexte géographique grâce aux données OpenStreetMap.

    3 / 3

    L'éditeur d'infrastructure permet aussi d'explorer les anomalies d'infrastructure, qui empêchent de faire des simulations correctes. Ces anomalies peuvent ensuite être corrigées manuellement, ou souvent automatiquement.

    Découvrir la diversité des métiers d'une métropole

    La Métropole Européenne de Lille (MEL) emploie de nombreux collaborateurs pour animer les services qu'elles offrent à ses administrés. De la jardinière au comptable, une très grande diversité de métiers et de compétences sont mobilisés dans cette grande organisation publique. Nous avons travaillé en collaboration avec les équipes de Datactivist à la création d'une série d'outils d'exploration visuelle permettant de se plonger dans l'environnement professionnel de la MEL.

    Il s'agit de démystifier cette grande organisation en révélant les détails des services, métiers et compétences qui l'animent. Pour des personnes extérieures à l'organisation qui pourraient par exemple souhaiter rejoindre l'organisation mais aussi pour les agents de la MEL qui souhaitent se situer voire identifier des pistes d'évolutions de carrière.

    Pour répondre à ces objectifs nous avons conçus deux modes d'exploration : tout représenter ou construire une représentation de proche en proche en fonction de ces intérêts. Dans les deux cas, un soin particulier a été porté à l'accompagnement des utilisateurs en proposant une navigation par menu contextuel ainsi que des tutoriels interactifs détaillant les modes d'interactions avec les visualisations.

    Un projet de Valorisation de données

    Ressources Humaines Sigma.js TypeScript React JavaScript
  • Une animation sur la page d'accueil représente la communauté des agents formant la MEL se recomposant par pôle et métiers les plus peuplés.
  • La cartographie des entités représente l'organisation de la MEL en pôle, directions, services... Quand une entité est sélectionnée, un panneau affiche la liste des entités qui y sont liées, ainsi qu'un bouton permettant de créer une cartographie personnalisée depuis cette entité.
  • La cartographie personnalisée permet de créer un réseau en y ajoutant successivement les entités, compétence ou métier d'intérêt. Soit en les cherchant, soit en les découvrant dans le voisinage des éléments déjà ajoutés.
  • Un tutoriel interactif présente les différents modes d'interaction de l'application. Le tutoriel met en évidence les boutons et déclenche automatiquement certaines actions pour mieux illustrer leurs impacts.
  • 1 / 4

    Une animation sur la page d'accueil représente la communauté des agents formant la MEL se recomposant par pôle et métiers les plus peuplés.

    2 / 4

    La cartographie des entités représente l'organisation de la MEL en pôle, directions, services... Quand une entité est sélectionnée, un panneau affiche la liste des entités qui y sont liées, ainsi qu'un bouton permettant de créer une cartographie personnalisée depuis cette entité.

    3 / 4

    La cartographie personnalisée permet de créer un réseau en y ajoutant successivement les entités, compétence ou métier d'intérêt. Soit en les cherchant, soit en les découvrant dans le voisinage des éléments déjà ajoutés.

    4 / 4

    Un tutoriel interactif présente les différents modes d'interaction de l'application. Le tutoriel met en évidence les boutons et déclenche automatiquement certaines actions pour mieux illustrer leurs impacts.

    Une nouvelle version de GraphCommons

    Depuis 2021, nous développons et maintenons pour GraphCommons leur plateforme web de cartographie, d'analyse et de partage de données-réseaux. Ce projet a sollicité toute notre expertise en réseaux - de la modélisation et des bases de données jusqu'à la visualisation, ainsi qu'en développement web. Nous avons ainsi intégré Neo4j côté données, ainsi que sigma.js et graphology côté client. Le site est basé sur Next.js et React. Nous continuons à développer régulièrement de nouvelles fonctionnalités, tout en maintenant l'application.

    Un projet de Conseils et accompagnement

    JavaScript Graphology React Neo4j Visualisation de données DevOps Architecture
  • Dans un grand graphe sur la 'dataviz', le nœud 'Benjamin Ooghe-Tabanou' est sélectionné. Ses voisins sont mises en évidence sur le graph et dans le panneau de droite qui présente également les attributs du nœud.
  • La fonctionnalité payante 'Hub' permet de créer de multiples vues sur une même graphe de connaissance. Sur cet écran nous créons une vue à partir d'une recherche de chemins allant des universités aux outils en passant par les personnes.
  • Une vue permet d'isoler une partie du graphe de connaissance d'un Hub. Le panneau de droite contient sur cet écran la légende des choix de couleurs reflétant le modèle de données du graphe.
  • 1 / 3

    Dans un grand graphe sur la 'dataviz', le nœud 'Benjamin Ooghe-Tabanou' est sélectionné. Ses voisins sont mises en évidence sur le graph et dans le panneau de droite qui présente également les attributs du nœud.

    2 / 3

    La fonctionnalité payante 'Hub' permet de créer de multiples vues sur une même graphe de connaissance. Sur cet écran nous créons une vue à partir d'une recherche de chemins allant des universités aux outils en passant par les personnes.

    3 / 3

    Une vue permet d'isoler une partie du graphe de connaissance d'un Hub. Le panneau de droite contient sur cet écran la légende des choix de couleurs reflétant le modèle de données du graphe.

    HOPPE-Droit

    Explorer une collection d'ouvrages pédagogiques en droit français du XIXe-XXe siècles

    HOPPE-Droit vise à l’élaboration et la publication d'une collection de notices bibliographiques de productions pédagogiques en droit des XIXe et XXe siècles. Nous avons conçu et développé un outil d’exploration qui permet d’étudier les évolutions du droit français à travers les manuels utilisés pour son enseignement depuis le XIXe siècle.

    Le corpus est édité par l'équipe CUJAS dans la base de données Heurist. Ces données sont exportées par l'API et indexées dans un ElasticSearch en prenant soin de conserver la complexité des dates aux différents niveau de précision (date annuelle, au jour près) et d'incertitude. Une application web permet d'explorer et visualiser le corpus sous différents angles: productions, auteurs, éditeurs, réseaux de co-publication, généalogies...

    Un projet de Développement sur-mesure

    Humanités numériques Visualisation de données Conception ElasticSearch React Heurist Sigma.js
  • Recherche par facettes des auteurs de la collection
  • Réseau auteurs-éditeurs liés par leurs productions pédagogiques communes
  • Généalogie d'un éditeur retraçant les association, acquisition...
  • 1 / 3

    Recherche par facettes des auteurs de la collection

    2 / 3

    Réseau auteurs-éditeurs liés par leurs productions pédagogiques communes

    3 / 3

    Généalogie d'un éditeur retraçant les association, acquisition...

    Explorer les professions de foi des élections de la Ve République

    Depuis 2013, la Bibliothèque de Sciences Po pilote la mise en ligne des archives électorales réunies par le Centre de recherches politiques (CEVIPOF) et désormais conservées au Département archives de la Bibliothèque : un fonds unique de professions de foi de candidats aux élections (législatives, mais aussi présidentielles, européennes, etc.) depuis 1958.

    Après l'avoir publié sur Internet Archive, la Bibliothèque de Sciences Po nous a confié la conception et le développement sur-mesure d'une application d'exploration du corpus, afin d'exploiter la très riche indexation de plus de trente mille documents. Nous avons développé une application web qui permet de filtrer les professions de foi par élection, circonscription, groupe politique, profil des candidat⋅e⋅s...

    Les résultats du filtrage peuvent ensuite être explorés en listes, en visualisations de données ou téléchargeables en CSV. Enfin le document original est consultable grâce au lecteur fourni par Internet Archive. Ainsi les choix d'indexation faits par les bibliothécaires et archivistes du projet peuvent être confrontés au document source.

    Un projet de Valorisation de données

    Humanités numériques JavaScript React TypeScript ElasticSearch
  • Un moteur de recherche par facettes de professions de foi des candidat⋅e⋅s aux élections législatives.
  • Répartition visuelle des documents sélectionnés par année et par département.
  • Visualisation des profils des candidat⋅e⋅s: pyramide des âges, professions, soutiens...
  • Pour une profession de foi, les métadonnées peuvent être comparées au document original hébergé par Internet Archive.
  • 1 / 4

    Un moteur de recherche par facettes de professions de foi des candidat⋅e⋅s aux élections législatives.

    2 / 4

    Répartition visuelle des documents sélectionnés par année et par département.

    3 / 4

    Visualisation des profils des candidat⋅e⋅s: pyramide des âges, professions, soutiens...

    4 / 4

    Pour une profession de foi, les métadonnées peuvent être comparées au document original hébergé par Internet Archive.

    Client confidentiel

    Configuration management database

    Exploration d'une CMDB à l'aide de réseaux égocentrés

    Un des plus grands groupes industriels français possédant l'intégralité de son système informatique (CMDB) dans une base Neo4j, avait besoin d'une interface d'exploration de son infrastructure.

    L'application se compose d'un moteur de recherche, et d'une page pour chaque noeud du graphe, présentant son voisinage et ses métadonnées. Pour avoir un moteur de recherche efficace (tolérance d'erreurs, recherche sur différents champs), nous avons indexé les données dans un ElasticSearch.

    L'interface est développée avec Angular, et Node pour l'API - le tout avec TypeScript.

    Un projet de Développement sur-mesure

    Industrie Neo4j ElasticSearch Angular Sigma.js
  • Page de recherche, à travers les différents types de noeuds
  • Page d'un noeud, avec son réseau égocentré, la liste de ses voisins directs et ses métadonnées
  • Exploration des réseaux en plein écran
  • 1 / 3

    Page de recherche, à travers les différents types de noeuds

    2 / 3

    Page d'un noeud, avec son réseau égocentré, la liste de ses voisins directs et ses métadonnées

    3 / 3

    Exploration des réseaux en plein écran

    Renouveler notre compréhension des paysages sonores urbains

    The LASSO platform est une plateforme web publiant des jeux de données spatio-temporel décrivant des paysages sonores. Ces jeux de données ont été produits en collaboration par des équipes de recherche de l'Université de Gustave Eiffel et de l'Université de Cergy-Pontoise. Cette plateforme vise à présenter les avantages de la cartographie des paysages sonores qui propose une approche perceptive beaucoup plus fine que les cartes de bruits standards. Elle fournit aux chercheurs et décideurs des jeux de données exclusifs ainsi qu'un démonstrateur des potentiels d'analyse de cette approche.

    Cette plateforme a pour ambition de participer à une meilleure compréhension du rôle que les paysages de données ont à jouer dans la construction des environnements urbains de demain.

    Nous avons conçu et développé cette plateforme en une application react sans serveur utilisant la technologie de cartographie vectorielle MapLibre.

    Un projet de Valorisation de données

    MapLibre TypeScript React JavaScript
  • La plateforme LASSO propose d'explorer plusieurs paysages sonores créés par les chercheurs du projet.
  • Deux cartes sont synchronisées pour faciliter la comparaison de variables: 'agrément' à gauche, niveaux de bruits standards à droite.
  • Pour chaque point de la carte, on retrouve les valeurs des variables composant le paysage sonore : temps de présence d'oiseaux, du traffic, de voix, niveau sonore et les deux variables émotionnelles agrément et animation.
  • 1 / 3

    La plateforme LASSO propose d'explorer plusieurs paysages sonores créés par les chercheurs du projet.

    2 / 3

    Deux cartes sont synchronisées pour faciliter la comparaison de variables: 'agrément' à gauche, niveaux de bruits standards à droite.

    3 / 3

    Pour chaque point de la carte, on retrouve les valeurs des variables composant le paysage sonore : temps de présence d'oiseaux, du traffic, de voix, niveau sonore et les deux variables émotionnelles agrément et animation.

    Bibliograph

    Bibliograph est un outil en ligne que nous avons créé avec et pour Tommaso Venturini dans le but d'équiper ses recherches sur les dynamiques des communautés scientifiques. Notre mission consistait à reproduire une méthode d'analyse par co-références déjà implémentées en python dans un outils en ligne allant jusqu'à l'exploration visuelle des réseaux produits. Une contrainte très forte de temps nous a poussé à choisir de réaliser ce projet en un atelier intensif colocalisé avec le client. En naviguant entre idées et contraintes à l'aide d'une méthode agile nous sommes parvenu à produire un outil simple et efficace de scientométrie conforme au besoin en un temps très court.

    Un projet de Valorisation de données

    Humanités numériques Analyse visuelle Conception JavaScript React TypeScript Sigma.js Graphology
  • Première étape: importer un corpus au format CSV.
  • Après parsing et indexation: définition des filtres.
  • Enfin, le réseau de co-référence avec des noeuds de métadonnées est visualisé.
  • 1 / 3

    Première étape: importer un corpus au format CSV.

    2 / 3

    Après parsing et indexation: définition des filtres.

    3 / 3

    Enfin, le réseau de co-référence avec des noeuds de métadonnées est visualisé.

    La Chromobase raconte le tournant chromatique entre 1851 et 1867 engendré par l'invention des colorants synthétiques.

    Chromobase est une base de données en accès libre produite par CHROMOTOPE, un projet financé par l'ERC et dirigé par Charlotte Ribeyrol. Ce programme de recherche explore ce qu'il est advenu de la couleur dans l'Europe industrielle durant la seconde moitié du XIXe siècle. Chromobase montre comment les nouveaux matériaux et techniques de coloration inventés dans les années 1850 ont engendré de nouvelles façons de penser la couleur dans la littérature, l'art, ainsi que dans l'histoire des sciences et des techniques. L'histoire extraordinaire de cette « Révolution de la couleur » du XIXe siècle est racontée à travers une série de récits interdisciplinaires entrelacés, rédigés par des experts de la couleur du monde entier.

    Nous avons développé une méthodologie basée sur des récits, où les textes écrits par les chercheurs servent de source à partir desquelles sont créées des données. Le processus éditorial annote les textes fournis par les chercheurs, en reliant des entités telles que des personnes, des organisations, des objets, des techniques, des événements, des couleurs ou des références. Chaque texte édité ajoute ainsi de nouveaux points de données à la base, formant peu à peu un corpus complet d'acteurs (humains et non humains) ayant joué un rôle dans notre objet d'étude. Chaque auteur décide quels éléments spécifiques mettre en avant en en parlant dans son récit. Ainsi, chaque donnée est, par construction, sélectionnée et contextualisée par des textes auxquels il est possible de se référer pour en apprendre davantage sur leurs rôles et leurs interactions.

    Pour alimenter ce processus, nous avons développé un gestionnaire de contenu basé sur Keystone.js, incluant des fonctionnalités dédiées telles que l'édition de lien vers des notices dans l'éditeur de texte, un module d'import de données Wikidata ou encore un format de téléchargement d'images haute définition utilisant le générateur de tuiles IIIF bIIIF. La base de données est ensuite transformée en site web statique à l'aide de Astro. Ce site, designé par Julie Blanc, propose une structure hypertextuelle favorisant la sérendipité, et des interfaces visuelles et interactives mettant en avant la matérialité des couleurs du XIXe siècle.

    Un projet de Développement sur-mesure

    Humanités numériques Keystone.js Astro IIIF wikidata TypeScript
  • Page d'accueil de la Chromobase montrant des narratives sous forme de liste et de frise temporelle et une roue chromatique.
  • [object Object]
  • [object Object]
  • [object Object]
  • [object Object]
  • [object Object]
  • 1 / 6

    Page d'accueil de la Chromobase montrant des narratives sous forme de liste et de frise temporelle et une roue chromatique.

    2 / 6

    La narrative “Persoz, the birth of heritage sciences and medieval colours” avec le marqueur “Jean-François Persoz” et le lien vers sa notice mise en evidence.

    3 / 6

    L'objet "Register of samples and correspondence, 1850-1930: letter from Camille Koechlin to Horace Koechlin, 4 August 1861" vu dans la roue chromatique.

    4 / 6

    Une image IIIF sur la page de l'objet Azofuchsine 6B Bayer, CNAM Musée des Arts et Métiers, Paris.

    5 / 6

    Un texte en cours d'édition : un sélecteur de notices "personne" est ouvert, et propose les personnes déjà présentes dans la base prêtes à être liées.

    6 / 6

    Une page dédiée de l'éditeur permet de créer des notices en cherchant/important/liant depuis Wikidata.

    La numérisation de la vie quotidienne pendant la pandémie

    Nous avons développé une application web qui permet à une équipe de recherche d'analyser un corpus d'observations ethnographiques en permettant de naviguer et qualifier le matériel collecté. Ce corpus a été collecté pendant le confinement lié au COVID-19 entre avril et juin 2020 au Danemark. Il contient 222 entretiens, 84 journaux, et 89 observations de terrain.

    Cette étude fait partie du projet "The Grammar of Participation: The Digitization of Everyday Life During the Corona Crisis" qui a été mené par des chercheurs du Centre for Digital Welfare de la IT University of Copenhagen et du Techno-Anthropology Lab de la University of Aalborg.

    Cet outil n'est pas accessible publiquement. L'accès aux données est réservé à l'équipe de recherche. Les copies d'écran ci-dessous ont été réalisé avec de fausses données.

    Un projet de Valorisation de données

    Humanités numériques JavaScript React TypeScript ElasticSearch
  • Un moteur de recherche de passage d'entretiens et d'observations de terrain
  • Chaque document du corpus a sa propre page web.
  • Les documents ont été découpés en segment. Chaque segment peut être référencé et qualifié par des tags.
  • 1 / 3

    Un moteur de recherche de passage d'entretiens et d'observations de terrain

    2 / 3

    Chaque document du corpus a sa propre page web.

    3 / 3

    Les documents ont été découpés en segment. Chaque segment peut être référencé et qualifié par des tags.

    Exposition-test

    Spécifications de l'infrastructure de données d'une exposition interactive

    Nous avons conçu l'infrastructure des données d'une exposition observant ses visiteurs : spécifications des flux de données depuis les systèmes de captation, jusqu'aux mur-écrans projetant les visualisations en passant par les processus d'analyse, d'archivage et de rendus graphiques.

    L'exposition ayant été annulée à cause de l'épidémie de COVID-19, nous n'avons pas pu passer en production pour le moment.

    Un projet de Conseils et accompagnement

    Humanités numériques Données temps réel Visualisation de données Conception Architecture
  • Extrait du schéma de l'infrastucture de données
  • Extrait du schéma de l'infrastucture physique
  • 1 / 2

    Extrait du schéma de l'infrastucture de données

    2 / 2

    Extrait du schéma de l'infrastucture physique

    Conseil et développement sigma.js

    G.V() est une plateforme d'exploration de bases de données graphes, conçue avec des technologies web, notamment sigma.js.

    Nous les accompagnons pour améliorer et optimiser leur intégration optimale de sigma.js. En outre, l'équipe G.V() nous sponsorise régulièrement pour développer de nouvelles fonctionnalités open-source, ou encore déboguer et optimiser la base de code de sigma.js.

    Un projet de Conseils et accompagnement

    JavaScript Visualisation de données Graphology Sigma.js

    Gephi Lite

    Développer une version web et allégée de Gephi

    Nous avons pris en charge le développement de Gephi Lite, une initiative visant à créer une version allégée et plus accessible du célèbre outil d'analyse de réseaux, Gephi. Notre équipe a conçu et développé Gephi Lite pour répondre à une demande croissante d'outils d'analyse de réseaux sociaux simples d'utilisation, sans sacrifier la profondeur des analyses.

    Ce projet, réalisé grâce à notre expertise approfondie en matière de visualisation de données et de développement d'applications web de cartographies de réseaux, souligne notre engagement envers le développement open-source et le soutien aux communautés académiques et de recherche.

    Un projet de Code et Données ouvertes

    Visualisation de données JavaScript Graphology React Sigma.js
  • Sélection "rectangle" dans un graphe dans Gephi Lite
  • Filtrage dans un graphe dans Gephi Lite
  • Affichage d'images dans les noeuds dans Gephi Lite
  • 1 / 3

    Sélection "rectangle" dans un graphe dans Gephi Lite

    2 / 3

    Filtrage dans un graphe dans Gephi Lite

    3 / 3

    Affichage d'images dans les noeuds dans Gephi Lite

    Hyphe

    Indexation de contenu web et déploiement automatisé sur OpenStack

    Hyphe est un crawler web conçu pour les chercheurs en sciences sociales, et développé par le médialab de Sciences-Po.

    Nous y avons ajouté les fonctionnalités suivantes :

    • Indexation textuelle automatique des corpus web par extraction puis indexation multiprocess des contenus dans ElasticSearch
    • Déploiement automatique de serveurs Hyphe chez des hébergeurs compatibles OpenStack

    Un projet de Code et Données ouvertes

    Humanités numériques Python ElasticSearch JavaScript DevOps OpenStack
  • Tests fonctionnels du processus d'indexation
  • Configuration du serveur Hyphe à déployer (Hyphe Browser)
  • Choix des capacités du serveur cloud à déployer (Hyphe Browser)
  • 1 / 3

    Tests fonctionnels du processus d'indexation

    2 / 3

    Configuration du serveur Hyphe à déployer (Hyphe Browser)

    3 / 3

    Choix des capacités du serveur cloud à déployer (Hyphe Browser)

    Sous-traitant Neo4j

    Nous intervenons pour le compte de Neo4j chez plusieurs de leurs clients pour les assister dans leurs projets de graphes. Cela va de la mission d'expertise sur Neo4j ou de chargement et/ou de visualisation de données, à la réalisation d'innovation labs, de prototypes, voire de projets web complets.

    Un projet de Conseils et accompagnement

    Neo4j Visualisation de données Conception

    Paiement en ligne et e-commerce

    Nous avons participé au développement du tunnel de paiement d'un des plus gros sites français de e-commerce, en Clojure et ClojureScript.

    Un projet de Conseils et accompagnement

    Industrie Clojure ClojureScript Performance Web

    RadioPolice

    Analyse visuelle et extraction sémantique des thèmes d'un corpus de tweets

    En réponse à un besoin d'analyse sémantique d'un corpus de tweets, nous avons mis en place une chaîne d'extraction de thèmes de ce corpus, par analyse des cooccurrences et filtrage de tokens par CHI². Nous avons également sorti un outil en ligne pour explorer les communautés thématiques, sous forme de réseaux de cooccurrences des termes.

    Dans le cadre de la publication du corpus par David Dufresne et le journal Mediapart, nous avons ensuite proposé l'usage d'ElasticSearch et Kibana pour former des requêtes correspondant à chacun des thèmes définis par l'équipe éditoriale, et aggréger les indicateurs représentés dans l'interface finale conçue et développée par WeDoData, Etamin Studio et Philippe Rivière / Visions carto.

    Un projet de Valorisation de données

    Journalisme de données Python Traitement Automatique de la Langue Science des données Analyse visuelle ElasticSearch Kibana
  • Réseaux de cooccurrences de termes du thème "(il)légitimité"
  • Voisins de "palet" dans le réseau de cooccurrence des termes significatifs
  • Construction du thème "outrage" à l'aide d'une requête dans Kibana
  • 1 / 3

    Réseaux de cooccurrences de termes du thème "(il)légitimité"

    2 / 3

    Voisins de "palet" dans le réseau de cooccurrence des termes significatifs

    3 / 3

    Construction du thème "outrage" à l'aide d'une requête dans Kibana

    REG⋅ARTS Registre d’inscription à l’École des beaux-arts de Paris – 1813-1968

    Le registre d’inscription de l’École des beaux-arts 1813-1968 est composé de six volumes conservés aux Archives Nationales et à l'École des beaux-arts. Le projet Reg⋅Arts propose une publication numérique de ce corpus souvent mobilisé par la recherche en histoire de l'art. Cette publication comporte un jeu de données en accès ouvert et une application web d'exploration visuelle associée. Cette dernière permet d’effectuer des recherches libres sur les élèves, les lieux de naissance, les adresses à Paris (1813-1892), les garants, mais aussi de systématiser l’interrogation de la source grâce aux filtres de recherche et leur croisement. Il est possible désormais d’interroger le registre pour en extraire, par exemple, tous les élèves nés à Dijon ayant étudié à l’École entre 1813 et 1840, ou de voir des clusters s’agréger autour de figures comme Jean-Léon Gérôme.

    Nous avons accompagné l'équipe de recherche du projet sur plusieurs années. Le premier volet de notre intervention a consisté à créer un jeu de données structuré à partir des transcriptions. Ensuite nous avons conseillé et outillé le travail de normalisation et d'alignement des données. Nous avons veillé à bien conserver les données sources, pour autoriser la vérification de cette mise à distance des sources. Enfin nous avons créé un export du jeu de données au format sémantique linked-art.

    Nous avons ensuite co-conçu et développé la publication web de ce jeu de données en collaboration avec Julie Blanc et Lola Duval. Cette application propose d'explorer les inscriptions dans le temps, les lieux de naissance et de domicile des élèves et les liens garants-élèves. Ces différentes modalités visuelles sont reliées par un système de filtres communs qui permet d'étudier un périmètre précis du corpus. Enfin, pour chaque élève, une page dédiée regroupe les informations liées à son ou ses inscriptions à l'école.

    Conscient de la difficulté d'analyser des données de registres sur le temps long, nous avons veillé à bien contextualiser les visualisations et données présentées. La page `élèves` présente les différentes étapes ayant abouti aux données normalisées: la photo de la source et la données telle que transcrite avant normalisation. Les visualisations montrent systématiquement le nombre de données non représentées pour cause de données manquantes. Enfin les fonds de cartes géographiques ont été spécialement travaillé pour éviter un maximum d'anachronisme (Girard 2025). Cette application fonctionne totalement dans le navigateur, ce qui simplifie grandement sa maintenance.

    Un projet de Développement sur-mesure

    Humanités numériques wikidata TypeScript
  • La fiche élève présente les données normalisées, les données brutes (telle que transcrite) et le scan de la page du registre d'où les données ont été extraites.
  • La page "Dates d'inscription" présente le nombre d'inscription dans le temps. Grâce au filtre sur genre 'femme' on observe que les femmes se sont admises qu'à partir du vingtième siècle. L'annotation de la frise temporelle nous confirme cette information.
  • La carte des lieux de naissance des élèves né.é⋅s entre 1800 et 1830 utilisant les frontières de 1815 comme fond de carte.
  • Des cartes historiques de la ville de Paris (fournies par Paris time Machine) permettent de vérifier les changements de rue quand on s'intéresse aux domiciles des élèves. Sur cet exemple, la rue de Chaume s'appelle aujourd'hui la rue des archives.
  • 1 / 4

    La fiche élève présente les données normalisées, les données brutes (telle que transcrite) et le scan de la page du registre d'où les données ont été extraites.

    2 / 4

    La page "Dates d'inscription" présente le nombre d'inscription dans le temps. Grâce au filtre sur genre 'femme' on observe que les femmes se sont admises qu'à partir du vingtième siècle. L'annotation de la frise temporelle nous confirme cette information.

    3 / 4

    La carte des lieux de naissance des élèves né.é⋅s entre 1800 et 1830 utilisant les frontières de 1815 comme fond de carte.

    4 / 4

    Des cartes historiques de la ville de Paris (fournies par Paris time Machine) permettent de vérifier les changements de rue quand on s'intéresse aux domiciles des élèves. Sur cet exemple, la rue de Chaume s'appelle aujourd'hui la rue des archives.

    RICardo

    RICardo est un projet de recherche dédié au commerce entre les nations, de la Révolution industrielle à la veille de la Seconde Guerre mondiale.

    Nous avons amélioré l'application web existante :

    • Refonte des visualisations existantes
    • Nouvelles visualisations des taux de change et des statuts politiques
    • Ajout de permaliens avec les paramètres des visualisations sur toutes les pages

    Lire notre post de blog "De nouvelles visualisations pour RICardo" pour découvrir les détails de cette prestation.

    Un projet de Valorisation de données

    Humanités numériques Visualisation de données Conception JavaScript AngularJS
  • Cette frise incite à considérer le contexte géopolitique dans l'analyse du commerce
  • Utilisation d'une heatmap pour comparer l'importance relative des partenaires commerciaux
  • Exploration de la base de taux de change par des small-multiples
  • 1 / 3

    Cette frise incite à considérer le contexte géopolitique dans l'analyse du commerce

    2 / 3

    Utilisation d'une heatmap pour comparer l'importance relative des partenaires commerciaux

    3 / 3

    Exploration de la base de taux de change par des small-multiples

    Client confidentiel

    Tableaux de bords de suivi de production

    Développement de plugins métier pour Kibana

    Notre client, un acteur industriel, voulait distribuer des tableaux de bord dans un de leur produit. Après une brève étude, Kibana a semblé la meilleure option, mais manquait certaines fonctionnalités.

    Nous avons développé un plugin pour Kibana avec ces fonctionnalités (intégration des tableaux de bords dans une page sur mesure, styles personnalisés).

    Un projet de Conseils et accompagnement

    Industrie Kibana ElasticSearch Tableau de bord

    Sigma.js

    Améliorer et maintenir une bibliothèque JavaScript open source

    Nous développons et maintenons sigma.js, une bibliothèque JavaScript open source dédiée à l'affichage de graphes. Nous utilisons cette bibliothèque dans une bonne partie de nos projets.

    Nous pouvons développer à la demande des fonctionnalités métier dédiées à nos clients, ou des fonctionnalités plus génériques - open-source autant que possible. Nous maintenons également React Sigma, qui facilite l'utilisation de sigma.js dans des applications basées sur React.

    Un projet de Code et Données ouvertes

    JavaScript Visualisation de données Graphology Sigma.js
  • L'application de démonstration du site sigmajs.org
  • Un exemple d'intégration métier chez ConspiracyWatch
  • 1 / 2

    L'application de démonstration du site sigmajs.org

    2 / 2

    Un exemple d'intégration métier chez ConspiracyWatch

    TOFLIT18

    TOFLIT18 est un outil d'exploration visuelle du commerce par marchandise de la France au XVIIIe siècle. Nous avons amélioré cet outil créé par le médialab de Sciences Po en optimisant les requêtes Neo4j et en ajoutant une table de données de flux de commerce ainsi qu'un système de permaliens.

    Un projet de Code et Données ouvertes

    Humanités numériques Neo4j JavaScript React
  • Les flux de commerce exportés depuis Nantes entre 1720 et 1780
  • Optimisation du calcul du taux de couverture des classifications
  • Le permalien du réseau de termes des exports de Nantes au XVIIIe siècle
  • 1 / 3

    Les flux de commerce exportés depuis Nantes entre 1720 et 1780

    2 / 3

    Optimisation du calcul du taux de couverture des classifications

    3 / 3

    Le permalien du réseau de termes des exports de Nantes au XVIIIe siècle

    Vous souhaitez voir plus en détails notre offre ?

    Découvrez nos services