AI Factory chez Kering
Comprendre et préparer une plateforme Data & Machine Learning à l’échelle du groupe.
Contexte
Kering souhaite structurer une AI Factory capable de couvrir l’ensemble du cycle de vie des produits data :
de l’exploration à la mise en production de modèles, en passant par le scoring, la recommandation et l’industrialisation.
L’enjeu : répondre à des besoins très hétérogènes entre Maisons, équipes centrales et contraintes d’infrastructure.
Comprendre
La première phase est entièrement dédiée à l’écoute et à la cartographie des usages.
Je mène des entretiens approfondis avec :
- les Data Scientists, Data Analysts et ML Ops de Kering,
- les équipes data de Gucci, YSL et Balenciaga,
- Kering Tech pour les enjeux d’infrastructure,
- Kering China, notamment autour d’Alibaba Cloud.
Les profils, les maturités et les attentes diffèrent fortement. Il faut clarifier les personas, les cas d’usage réels et les points de friction.
Cadrer
À partir de ces échanges, je structure :
- des personas data (exploration, expérimentation, production),
- des cas d’usage prioritaires (API de scoring, moteurs de recommandation),
- une analyse des solutions existantes.
J’étudie à la fois des SaaS du marché et des librairies open source, en évaluant leur adéquation avec les contraintes du groupe.
Tester
La seconde phase consiste à passer du concept à l’épreuve du réel.
Plusieurs POCs sont organisés :
- un POC Dataiku avec Balenciaga pour les besoins analytiques et exploratoires,
- un POC Kubeflow pour poser les bases techniques de l’AI Factory,
- la migration progressive des flux de données vers GCP.
Chaque POC est pensé pour répondre à un persona précis, avec des critères d’évaluation clairs.
Ce que je retiens
La facilité a faire quelque chose dans un jupyter Notebook.
La compléxité de le mettre en Production.
