"Ancien chez Tesla & Apple, je combine vision business et expertise data pour créer des analyses utiles, pas juste des graphiques."

📊 Projet 12 - Détectez des faux billets (Machine Learning)

🎓 Projet validé ✅
Dans ce projet, j’ai été missionné en tant que data analyst pour le compte de l’ONCFM (Organisme National de Contrôle des Faux Monnayages).
L’objectif était de concevoir un modèle de détection automatisée de faux billets, afin d’améliorer la fiabilité des contrôles et limiter les pertes financières liées à la circulation de billets frauduleux.

🎯 Objectif
Mettre en place un modèle de classification performant capable d’identifier les faux billets à partir de leurs caractéristiques physiques, tout en minimisant les erreurs critiques (notamment les faux billets classés comme vrais).
🧪 Travaux réalisés
• Analyse exploratoire d’un jeu de données de 1500 billets (1000 vrais / 500 faux)
• Nettoyage des données (gestion des valeurs manquantes, cohérence des variables)
• Étude des distributions et corrélations entre variables
• Standardisation des données pour certains modèles
• Entraînement et comparaison de plusieurs modèles de machine learning :
 - Régression logistique
 - KNN (K-Nearest Neighbors)
 - Random Forest
 - K-Means (approche non supervisée)
• Évaluation des performances via :
 - Accuracy, Precision, Recall, F1-score
 - ROC-AUC
 - Matrice de confusion
• Analyse spécifique des erreurs critiques (faux positifs / faux négatifs)
• Optimisation et sélection du modèle le plus pertinent
• Sauvegarde du modèle et création d’un script de prédiction sur de nouvelles données
🛠️ Compétences mobilisées
Machine Learning · Classification · Évaluation de modèles · Feature scaling · Analyse exploratoire · Data cleaning · Python (pandas, scikit-learn, matplotlib) · Interprétation des métriques · Data storytelling · Posture de data analyst
📊 Livrables
• Notebook complet d’analyse et de modélisation
• Comparatif des modèles et justification du choix final
• Visualisations (matrices de confusion, courbes ROC, distributions)
• Modèle entraîné exporté (joblib)
• Script de prédiction automatisé sur de nouveaux billets

📊 Projet 11 - Produisez une étude de marché internationale (ACP & Clustering)

🎓 Projet validé ✅
Dans ce projet, j’ai été missionné en tant que data analyst au sein de La poule qui chante, entreprise française d’agroalimentaire spécialisée dans l’élevage et la vente de poulets biologiques.
L’objectif était d’évaluer les opportunités de développement à l’international en identifiant des groupements de pays pertinents pour l’exportation, à destination d’un COMEX non technique.

🎯 Objectif
Aider la direction à la prise de décision stratégique en proposant des clusters de pays cibles, fondés sur une analyse multi-critères (économiques, démographiques, agricoles et politiques), afin de prioriser les futures études de marché.
🧪 Travaux réalisés
• Cadrage du besoin métier et définition de la problématique d’expansion internationale.
• Identification des variables via la méthode PESTEL (≥ 8 variables).
• Collecte et croisement de données open data (FAO, Banque mondiale, données mondiales).
• Construction d’un jeu de données unifié couvrant plus de 100 pays (≥ 60 % de la population mondiale).
• Nettoyage, normalisation et feature engineering (création d’au moins 3 nouvelles variables).
• Analyse exploratoire des données (EDA).
• Réalisation d’une ACP avec interprétation du cercle des corrélations et des projections.
• Mise en œuvre de clusterings (CAH – méthode de Ward, puis K-means) et comparaison des résultats.
• Formulation de recommandations stratégiques et préparation d’une présentation COMEX vulgarisée.
🛠️ Compétences mobilisées
Analyse de marché · ACP · Clustering · Feature engineering · Analyse exploratoire · Data cleaning · Data visualisation · Data storytelling · Recommandations stratégiques · Posture de consultant data.
📊 Livrables
Notebooks Python/R (préparation, ACP, clustering) · Présentation COMEX (≤ 25 slides).

📊 Projet 10 - Réalisez une étude sur l’accès à l’eau potable (Data Visualisation)

🎓 Projet validé ✅
Dans ce projet, j’ai été missionné en tant que consultant data analyst au sein de l’ONG DWFA (Drinking Water For All), dont l’objectif est de favoriser l’accès universel à l’eau potable.
L’enjeu était de produire une analyse visuelle stratégique afin de soutenir une demande de financement auprès d’un bailleur de fonds et d’identifier les pays prioritaires pour de futures actions.

🎯 Objectif
Aider à la prise de décision stratégique en identifiant les pays rencontrant des difficultés d’accès à l’eau potable grâce à un tableau de bord interactif, accessible à un public non technique (décideurs, bailleurs, responsables de mission).
🧪 Travaux réalisés
• Analyse du contexte humanitaire et des enjeux liés à l’accès à l’eau potable.
• Sélection d’indicateurs pertinents en lien avec les 3 domaines d’expertise de DWFA (création, modernisation et conseil).
• Exploitation de jeux de données issus de l’OMS et de la FAO.
• Prétraitement, nettoyage et structuration des données.
• Conception d’un tableau de bord interactif comprenant 3 vues analytiques comparatives par pays.
• Application des bonnes pratiques de data visualisation et data storytelling.
• Préparation d’une démonstration et d’un document de synthèse des choix d’indicateurs.
🛠️ Compétences mobilisées
Data visualisation · Data storytelling · Analyse exploratoire · Prétraitement des données · Choix d’indicateurs · Tableau / Power BI · Reporting décisionnel · Posture de consultant data.
📊 Livrables
Tableau de bord interactif (Tableau Public ou Power BI), document de synthèse et support de soutenance avec recommandations stratégiques.

📊 Projet 9 - Analysez les ventes d'une librairie avec R ou Python

🎓 Projet validé ✅
Dans ce projet, j’ai intégré l’équipe Marketing de Lapage, une librairie ayant ouvert un site de vente en ligne, pour analyser ses données de ventes et comprendre le comportement des clients. L’objectif était de produire un rapport analytique complet, à présenter au CODIR, permettant de soutenir la stratégie commerciale et marketing.

🎯 Objectif
Analyser les indicateurs de ventes et les comportements clients afin de fournir des insights actionnables pour optimiser les offres, les prix et le ciblage client.
🧪 Travaux réalisés
• Exploration et nettoyage des données de ventes et des informations clients.
• Calcul des indicateurs clés : chiffre d’affaires par produit, panier moyen, fréquence d’achat, top/flop produits, répartitions par catégorie et segment client.
• Analyse des corrélations demandées : genre vs catégories achetées, âge vs montant total, fréquence, panier moyen et catégories de livres.
• Identification et traitement des valeurs aberrantes pour fiabiliser les analyses.
• Production de visualisations claires et synthétiques pour le CODIR.
• Création d’un support de présentation stratégique pour exposer les résultats de manière concise et compréhensible pour des non-techniciens.
🛠️ Compétences mobilisées
Python / R · Jupyter / R Markdown · pandas / dplyr / matplotlib / ggplot2 · Statistiques descriptives · Analyse de corrélations · Data cleaning · Visualisation · Reporting stratégique.
📊 Livrables
Notebook complet (.ipynb ou .Rmd) avec analyses et graphiques, support de présentation (PPT/GSlides) de la réunion CODIR incluant indicateurs clés, visualisations et recommandations stratégiques.

📊 Projet 8 - Analysez des indicateurs de l'égalité femmes/hommes en respect du RGPD

🎓 Projet validé ✅
Dans ce projet, j’ai intégré un cabinet de conseil en transformation digitale pour automatiser l’analyse de l’égalité femmes-hommes. L’objectif était de produire un rapport complet à partir des données SIRH tout en respectant le RGPD, afin de faciliter la publication de l’index de l’égalité professionnelle et d’améliorer la marque employeur.

🎯 Objectif
Automatiser la collecte, l’agrégation et la visualisation des indicateurs clés d’égalité femmes-hommes, et produire des supports exploitables pour la direction.
🧪 Travaux réalisés
• Analyse des fichiers SIRH et identification des indicateurs essentiels (minimum 5 indicateurs selon le guide ministériel).
• Conception d’un workflow KNIME automatisant la préparation des données, l’anonymisation et la génération de graphiques.
• Nettoyage, vérification de la cohérence et structuration des données pour respecter les normes RGPD.
• Export d’un fichier .csv prêt pour des analyses futures sur Tableau Software.
• Création de visualisations claires : indicateurs, comparaisons et tendances.
• Préparation d’un support de présentation de 15 slides : méthodologie, workflow, anonymisation, graphiques, score final et recommandations.
• Proposition de recommandations pour améliorer le score d’égalité femmes-hommes l’année suivante.
🛠️ Compétences mobilisées
KNIME · Data preparation · Workflow automation · Analyse de données RH · Visualisation · RGPD · Reporting · Communication synthétique.
📊 Livrables
Workflow KNIME commenté (.knwf), fichier .csv avec les données préparées, support de présentation (PPT/GSlides) incluant méthodologie, visualisations et recommandations.

📊 Projet 7 - Créez un tableau de bord dynamique avec Power BI

🎓 Projet validé ✅
Dans ce projet, j’ai intégré l’équipe ESN Data pour réaliser une mission de data visualisation chez Sanitoral, une entreprise internationale de soins bucco-dentaires. L’objectif : créer un tableau de bord interactif pour suivre l’avancement des projets, contrôler les performances et identifier les retards.

🎯 Objectif
Développer un tableau de bord dynamique avec Power BI en respectant les besoins métier et les bonnes pratiques de storytelling.
🧪 Travaux réalisés
• Compréhension des besoins utilisateurs et formalisation des user stories dans un Product Strategy Canvas.
• Analyse et préparation des données : nettoyage, transformation et liaison des tables via Power Query Editor.
• Création de clés uniques pour relier projets et phases.
• Développement du tableau de bord : visualisations claires des coûts, avancement, retards et performances.
• Mise en place d’indicateurs stratégiques pour faciliter la prise de décision.
• Exploitation des formules DAX, filtres et rôles pour adapter les visualisations à différents profils.
• Préparation d’un onglet dédié à la documentation : Product Strategy Canvas, étapes de mise à jour des données et modèle de données.
• Application du storytelling pour une présentation fluide et synthétique destinée aux directeurs.
🛠️ Compétences mobilisées
Power BI · Power Query · DAX · Data modeling · Dashboard design · Storytelling · Analyse de données · Communication visuelle · Bonnes pratiques BI.
📊 Livrables
Tableau de bord Power BI (.pbix) incluant : analyses graphiques, proposition d’axe stratégique, Product Strategy Canvas, procédure de mise à jour des données et explication du modèle de données.

🍷 Projet 6 - Optimisez la gestion des données d’une boutique avec R ou Python

🎓 Projet validé ✅
Dans ce projet, j’ai rejoint l’équipe data de Bottleneck, un marchand de vin premium, pour améliorer la fiabilité et l’analyse des données issues de leurs différents systèmes (ERP, site web, table de liaison). 
L’objectif : consolider les données, corriger les nombreuses incohérences et produire des analyses exploitables par le comité de direction.

🎯 Objectif
Rapprocher les différentes sources, nettoyer les données, détecter les anomalies et fournir des analyses claires sur les ventes, les prix, les marges et les stocks.
🧪 Travaux réalisés
• Rapprochement des fichiers ERP ↔ site web via la table de correspondance.
• Identification d’erreurs : types incohérents, doublons, valeurs manquantes, erreurs de prix, mauvais SKU, jointures incorrectes.
• Mise en place de corrections et propositions d’amélioration (normalisation, typage, contrôle qualité).
• Analyses exploratoires : distributions, cohérence des données, recherche d’anomalies.
• Calcul du CA total et par produit, analyse des tops références (Pareto 20/80).
• Détection de valeurs aberrantes (z-score, IQR) + boxplots pour identifier les erreurs de prix.
• Analyse des marges, rotation des stocks, taux de couverture et mois de stock.
• Étude des corrélations entre variables quantitatives (prix, prix d’achat, stock, ventes, marge…).
• Formalisation des erreurs détectées et synthèse pour le futur projet de data visualisation.
🛠️ Compétences mobilisées
Python / R · Pandas / dplyr / tidyr · Analyses exploratoires · Détection d’anomalies · Visualisation (matplotlib / ggplot2) · Analyse CA & stocks · Structuration d’un rapport pour un CODIR · Bonnes pratiques RGPD et qualité de données.
📊 Livrables
Notebook complet (Python/R) · Présentation ≤ 20 slides : nettoyage, analyses, anomalies, recommandations pour améliorer l’ERP et fiabiliser la base de données.

🏡 Projet 5 - Créez et utilisez une base de données immobilière avec SQL

🎓 Projet validé ✅
Dans ce projet, j’ai rejoint l’équipe Data de Laplace Immo, dans un scénario professionnel où la CTO m’a confié la reconstruction d’une base de données immobilières nationale à partir de plusieurs sources (DVF 2020, données géographiques, démographie).
L’objectif était d’obtenir une base exploitable, normalisée et conforme au RGPD, pour permettre aux équipes d’analyse et de prédiction de modéliser le prix des biens.

🎯 Objectif
Concevoir une base SQL complète et fiable :
normalisation du modèle relationnel (3NF) ;
définition d’un schéma clair avec clés primaires / étrangères et contraintes ;
chargement de données volumineuses ;
production des premières analyses statistiques immobilières.
🧪 Travaux réalisés
Analyse du besoin métier et revue des trois jeux de données (DVF, communes, démographie).
Construction du dictionnaire de données avec identification des champs sensibles (RGPD).
Création du schéma relationnel 3NF (tables Bien, Vente, Commune).
Intégration des données : typage, nettoyage, contraintes d’intégrité, clés, index.
Écriture de requêtes SQL avancées (agrégations, jointures, filtres).
Analyses : volume des ventes, prix/m², répartition géographique, types de biens.
Création du support de présentation pour la CTO : schéma relationnel + résultats + recommandations.
🛠️ Compétences mobilisées
SQL : modélisation, normalisation, jointures, contraintes
Modèle relationnel & 3NF
Gestion et import de données volumineuses (CSV)
Analyse statistique appliquée aux données immobilières
Conception de schéma + dictionnaire de données
Structuration & communication de résultats techniques
📊 Livrables
Schéma relationnel finalisé (3NF)
Base SQL fonctionnelle et documentée
Dictionnaire de données + notes RGPD
Pack de requêtes SQL
Présentation professionnelle (PowerPoint)

🌍 Projet 4 - Réalisez une étude de santé publique avec R ou Python

🎓 Projet validé ✅
Dans ce projet, j’ai intégré l’équipe de recherche de la FAO (ONU) dans un scénario immersif pour analyser l’évolution de la sous-nutrition mondiale.
C’est mon premier projet d’analyse de données avancée avec Python/R, réalisé intégralement dans un Notebook Jupyter ou R Markdown.

🎯 Objectif : produire une étude complète couvrant 2013–2017, en continuité avec un autre analyste ayant traité 2018–2022.
L’analyse devait s’appuyer sur les données officielles FAO et fournir des résultats chiffrés, des visualisations fiables et une interprétation claire des tendances.
🧪 Travaux réalisés
Chargement, nettoyage et préparation de plusieurs datasets FAO.
Gestion des valeurs manquantes, typage et structuration.
Calcul des indicateurs clés : taux de sous-nutrition, insécurité alimentaire, variables nutritionnelles et démographiques.
Visualisations : évolutions temporelles, comparaisons régionales, identification des zones critiques.
Analyses complémentaires (tendances, accélérations, risques).
Production d’un notebook complet avec code commenté et graphiques.
Création d’une présentation structurée à destination de l’équipe FAO.
🛠️ Compétences mobilisées
Python / R
Notebooks Jupyter ou R Markdown
pandas, dplyr, tidyr
matplotlib, ggplot2
Analyse statistique appliquée à la santé publique
Structuration et communication d’une analyse scientifique
📊 Livrables
Notebook complet (Python/R) + version PDF
Support de présentation (PPT / GSlides)
Résultats, graphiques, recommandations opérationnelles

🚀 Projet 3 - Requêtez une base de données avec SQL

🎓 Projet validé ✅
Dans ce projet, j’ai réalisé mes premières manipulations complètes d’une base de données relationnelle : création, modélisation, chargement, exploration et requêtage SQL.
L’objectif était d’acquérir des bases solides en gestion de données et en analyse SQL, compétences essentielles dans les métiers de Data Analyst et BI.

🔍 Objectifs du projet
Comprendre et structurer des datasets (contrats clients + référentiel géographique).
Construire un dictionnaire de données complet.
Concevoir un schéma relationnel normalisé (SQL Power Architect).
Générer le code SQL de création de tables.
Charger et contrôler les données dans un SGBD (SQLite/MySQL/PostgreSQL).
Réaliser une série de requêtes SQL d’analyse (12 requêtes guidées puis avancées).
Produire un document technique, une analyse structurée, et une présentation finale.
🛠️ Compétences développées
Exploration et typage des données
Construction d’un dictionnaire de données
Modélisation relationnelle & 3NF
Création de tables avec contraintes (PK/FK, types, tailles…)
Chargement et contrôle de datasets
Écriture de requêtes SQL analytiques :
filtres
agrégations
jointures
regroupements
classements
Vérification et validation des analyses avec un mentor
📊 Travaux réalisés
Dictionnaire de données complet
Schéma relationnel normalisé (JPG)
Script SQL de création de la base
Base de données opérationnelle avec toutes les données chargées
12 requêtes SQL d’analyse (TOP 5 surfaces, moyennes, regroupements régionaux, etc.)
Document technique & présentation de méthodologie
🎯 Livrables
Document technique (12 pages)
Schéma relationnel + code SQL
Analyses SQL complètes + résultats
Présentation méthodologique
Auto-évaluation & échange final avec le mentor
📘 Compétences clés maîtrisées
✔️ SQL (SELECT, JOIN, GROUP BY, HAVING, ORDER BY…)
✔️ Modélisation de base de données
✔️ Analyse structurée et méthode analytique
✔️ Documentation technique
✔️ Travail guidé et validation avec mentor expert

📊 Projet 2 - Analyse de ventes e-commerce & tableau de bord marketing – Grand Marché

🎓 Projet validé ✅
Dans ce projet, j’ai incarné un Data Analyst au sein du service marketing de Grand Marché, une entreprise de e-commerce multi-secteurs.
L’objectif : fournir une analyse claire, actionnable et accessible afin d’aider la direction à piloter la stratégie commerciale.

🔍 Partie 1 : Rapport mensuel – Analyse des ventes et storytelling
À partir des données mensuelles de ventes et de trafic, j’ai réalisé :
l’analyse de la proportion des ventes par catégorie,
l’étude du panier moyen et de son évolution,
le suivi du chiffre d’affaires, des achats clients et du ratio achat/visites,
l’analyse du temps passé sur le site lors des sessions conclues,
une projection de l’évolution du CA.
J’ai ensuite sélectionné 5 graphiques clés (un par diapositive comme demandé) et construit une présentation synthétique destinée à un public non initié à la data.
🎯 Objectif atteint : rendre la data lisible et orientée décision.
📈 Partie 2 : Tableau de bord Excel – Clients affiliés
J’ai complété et mis à jour le tableau de bord affiliés demandé par l’équipe marketing :
création de 4 nouveaux graphiques et d’une infographie,
mise à jour des formules et automatisations,
construction d’un tableau résumé par client (achats + chiffre d’affaires),
respect des bonnes pratiques d’accessibilité.
🚀 Livrables & compétences validées
✔ Rapport d'analyse visuel et narratif
✔ Tableau de bord Excel dynamique et structuré
✔ Synthèse stratégique pour l’équipe marketing
✔ Storytelling, vulgarisation, choix de graphiques pertinents
✔ Analyse du trafic et des performances commerciales
🎯 Ce que ce projet m’a apporté
Mes premiers pas en data storytelling, essentiel pour rendre mes analyses compréhensibles.
Une expérience concrète d’analyse marketing orientée terrain.
Les bases solides des bonnes pratiques de data visualisation.
La capacité à adapter mon discours selon l’audience (direction, marketing, non-tech).

Projet 1 : Prise en main du parcours Data Analyst & définition du projet professionnel

Ce que ce projet m’a apporté

Une vision claire du métier de Data Analyst et de ses attentes.
Une structuration solide de mon parcours de formation.
Une meilleure connaissance de mes forces et axes de progression.
Les bases de ma posture professionnelle dans la data.

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.