Aller au contenu principal
Retail & Alimentaire data
Intermarché

Quand un géant du retail décide que la donnée doit piloter chaque rayon, chaque entrepôt, chaque recommandation client — il faut d'abord bâtir les fondations sur lesquelles tout le reste reposera.

Avant

15+ projets

sans architecture commune ni gouvernance : risque de dette technique généralisée

Après

15+

initiatives data livrées

15+

initiatives data livrées

3

domaines : ML/IA, BI, streaming

Multi-années

d'accompagnement continu

Intermarché, troisième réseau alimentaire en France, engage un programme Data ambitieux : réduire les ruptures produit, personnaliser l'assortiment magasin, mieux connaître chaque client et accélérer son e-commerce. Une Data Factory dédiée est créée pour porter les initiatives en parallèle — ML, reporting décisionnel, streaming temps réel. Mais construire vite sans architecture solide, c'est accumuler de la dette invisible qui finira par stopper net la production.

L'HISTOIRE

Intermarché, troisième réseau de grande distribution alimentaire en France, sait depuis longtemps que la bataille du retail se joue dans les détails : le bon produit, au bon endroit, au bon moment. Mais piloter des milliers de points de vente, anticiper les ruptures, personnaliser les recommandations et accélérer l’e-commerce dans la même séquence stratégique — cela demande bien plus que des tableaux Excel et des intuitions terrain. Cela demande de la donnée, structurée, gouvernée, mise en mouvement.

Pour tenir cette ambition, Intermarché crée une Data Factory : une cellule dédiée à industrialiser la valeur extraite de la donnée, capable de mener plusieurs initiatives en parallèle. Mais une Data Factory sans architecture de référence, c’est un chantier où chaque équipe invente ses propres fondations. La dette technique s’accumule silencieusement, et ce qui devait accélérer finit par ralentir.

Nobori Partners entre dans ce programme comme architecte data de référence — pas pour livrer un projet, mais pour que tous les projets tiennent.

Le travail commence en amont du code, dans les ateliers business. Pour chaque initiative, il s’agit de comprendre le processus métier concerné, d’identifier les données disponibles, d’évaluer leur maturité et de choisir les bons patterns : comment ingérer, comment transformer, comment restituer. Ce cadrage initial évite les mauvaises surprises en cours de développement et aligne les équipes data et métier avant que le premier pipeline ne soit écrit.

Sur le volet ML et IA, trois cas d’usage structurants sont accompagnés : un moteur de recommandations produit, un outil de comparaison de performances entre points de vente, et des modèles de connaissance client. Pour chacun, la définition de l’architecture couvre les flux de features, les pipelines d’entraînement sur Databricks et Spark, et les interfaces de restitution vers les applications consommatrices via Azure Functions.

Le reporting décisionnel constitue un deuxième domaine majeur. Les équipes supply chain ont besoin de voir en temps réel l’état des stocks, les risques de rupture et les flux logistiques. Les responsables de magasin veulent leurs tableaux de bord propres, cohérents, actionnables. Nobori Partners conçoit les couches sémantiques Power BI — modèles tabulaires, hiérarchies, KPIs normalisés — qui font que chaque chiffre signifie la même chose pour tout le monde, du siège au point de vente.

Le troisième domaine est le streaming temps réel pour l’e-commerce. Là, la latence compte : une commande en ligne, un stock mis à jour, une recommandation affichée en quelques secondes. L’architecture mobilise Kafka, Solace et Boomi iPaaS pour orchestrer les flux événementiels et garantir que les données circulent à la vitesse que les clients attendent.

Transversalement, Nobori Partners structure la fonction architecte data elle-même au sein de la Data Factory : templates de revues d’architecture, référentiel de patterns par type de projet, processus d’onboarding standardisé. Quand un nouveau cas d’usage arrive, l’équipe n’improvise plus — elle suit un chemin éprouvé.

Au fil des années, ce sont plus de quinze initiatives qui passent de l’idée à la production dans ce cadre. Recommandations, pilotage logistique, connaissance client, streaming e-commerce : chacune bénéficie d’une architecture pensée, d’une gouvernance documentée, et d’un socle technique cohérent qui facilite l’évolution et la maintenance.

NOTRE APPROCHE

5 étapes pour y arriver

1

Cadrage architecture et étude business

Pour chaque initiative, analyse des processus métiers concernés, cartographie des objets de données, qualification de la maturité des sources disponibles et choix des patterns d'ingestion, d'intégration et de restitution adaptés au cas d'usage. Le résultat : une fiche d'architecture partagée entre la Data Factory et les équipes métier avant tout développement.

Azure DatalakeDatabricks
2

Modélisation et gouvernance par projet

Accompagnement des équipes projet sur la modélisation des données (schémas, relations, granularité), la rédaction du dictionnaire de données, la traçabilité du data lineage et la définition des patterns de qualité. Chaque domaine — ML/IA, BI, streaming — suit les mêmes conventions, ce qui rend les pipelines lisibles et maintenables dans la durée.

SparkPower BIBoomi iPaaS
3

Initiatives ML & IA

Architecture et gouvernance des cas d'usage machine learning : moteur de recommandations produit, comparaison de performances entre points de vente, et approfondissement de la connaissance client. Pour chaque modèle mis en production, définition des features, des flux de données d'entraînement et des interfaces de restitution vers les applications métier.

DatabricksSparkAzure DatalakeAzure Functions
4

Reporting & pilotage opérationnel

Conception des tableaux de bord supply chain pour le pilotage des ruptures et des flux logistiques, et des dashboards magasins pour les responsables de point de vente. Architecture des couches sémantiques Power BI — modèles tabulaires, hiérarchies, KPIs normalisés — pour garantir une lecture cohérente de la performance à tous les niveaux de l'organisation.

Power BIAzure DatalakeDatabricks
5

Industrialisation de la fonction architecte data

Structuration du rôle d'architecte data au sein de la Data Factory : templates de revues d'architecture, référentiel de patterns par type d'initiative, processus d'onboarding des nouveaux projets. L'objectif — que la Data Factory puisse absorber de nouveaux cas d'usage sans repartir de zéro à chaque fois.

SolaceKafkaBoomi iPaaSAzure Functions

RÉSULTATS

L'impact mesurable

15+ initiatives data livrées
3 domaines : ML/IA, BI, streaming
Multi-années d'accompagnement continu

Plus de 15 initiatives livrées en production sur trois domaines complémentaires : recommandations ML et connaissance client, pilotage supply chain et tableaux de bord magasins, streaming temps réel pour l'e-commerce — le tout porté par une architecture commune et une gouvernance pérenne.