Want to create interactive content? It’s easy in Genially!

Get started free

PORTFOLIO Pt2 BOUROUIS Sajid BUT SD

Sajid Bourouis

Created on March 25, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Transcript

PORTFOLIO

BOUROUIS Sajid

START

2024-2025

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Sommaire

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil
  • Sport hybride

Modélisation

Reporting

Traitement de données

Data Engineering

A propos de moi

Etudiant en Bachelor Universitaire de Technologie en Science des Données, je suis passionné par l’analyse et la valorisation des données. Curieux et rigoureux, Mon parcours m’a permis d’acquérir des compétences en modélisation, en automatisation et en développement d’outils d’aide à la décision.

Compétences

CONTACT

Formation

  • 2024-2025 : BUT 2 - Science des Données.
    • Visualisation et conception d’outils décisionnels.
    • Université de Lille - site de Roubaix.

Experience

  • De 2023 à 2025Surveillant d’examen au CNAM HAUT-DE-FRANCE - CDD
  • 15/05/2023 au 18/08/2023Manutention polyvalent -Verbaudet - CDD

Centre d'intérets

  • Technologie
  • Association caritative (Coeur Etoilé)

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Analyser

Je conçois des scripts et solutions automatisées en Python et SQL pour optimiser le traitement et l’exploitation des données en entreprise.

Développer

Je transforme les données en visualisations claires et impactantes via des outils BI comme Qlik Sense, rendant l’information accessible et actionnable.

Valoriser

Grâce à mes compétences en statistiques et en exploration de données, j’identifie des tendances et des insights pour optimiser la prise de décision.

Je collecte, nettoie et structure les données pour garantir leur qualité et leur cohérence, facilitant ainsi leur exploitation.

Traiter

Découvrez mes compétences

Dans cette section, je présente les projets sur lesquels j'ai travaillé, mettant en avant les compétences techniques et analytiques acquises. Chaque projet illustre ma capacité à exploiter la data, développer des solutions innovantes et appliquer des méthodes avancées d'analyse. À travers ces réalisations, j'ai su mobiliser des compétences transversales telles que la gestion de projet, la collaboration en équipe et la résolution de problèmes.

Mes projets et compétences professionnels

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Programmation web

Préparation/Intégration de données

Automatisation et test en programmation

BCC n°1 : Traiter des données à des fins décisionnelles

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil
🖥️ Automatisation avec AirflowJ’ai découvert Apache Airflow, un outil d’ordonnancement et d’automatisation des workflows :
  • Planification et exécution de tâches complexes via des DAGs (Directed Acyclic Graphs).
  • Surveillance et gestion des workflows via une interface Web intuitive.
  • Interaction avec des bases de données et API grâce aux opérateurs et hooks.
  • Gestion des dépendances entre les tâches pour optimiser les processus ETL et l’automatisation des traitements de données.
🛠️ Utilisation des scripts Unix
  • Automatisation de tâches grâce aux commandes (ls, mkdir, cut, cd).
  • Ajout de commentaires dans les scripts pour améliorer la lisibilité et la maintenance (#).

🔍 Importance des tests en informatique

  • Détection des bugs pour éviter les erreurs critiques pouvant impacter la fiabilité, la sécurité et la performance des systèmes.
  • Amélioration de la maintenabilité du code en identifiant rapidement les régressions. Optimisation des performances en identifiant et corrigeant les goulets d’étranglement.
⚙️ Techniques et outils maîtrisés
  • Tests boîte noire : Vérification des entrées et sorties sans connaître l’implémentation interne du programme.
  • Unitest (Python) : Utilisation de unittest pour écrire et exécuter des tests unitaires garantissant la robustesse du code.
  • Bases de données et intégrité des données : Compréhension des contraintes de clé primaire et leur impact sur l’intégrité des données.

Lors de ce semestre, j’ai acquis des compétences en automatisation des tests, un élément clé pour garantir la fiabilité et la performance des systèmes informatiques. J’ai appris à concevoir et exécuter des tests unitaires, fonctionnels et décisionnels, à travers plusieurs outils et méthodologies.

Automatisation et test en programmation

Suivant

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

💡 En résumé, cette matière m’a permis de maîtriser l’intégration et la transformation des données avec SSIS, de concevoir et exploiter un cube OLAP, et d’analyser des données multidimensionnelles à l’aide du langage MDX. Ces compétences sont essentielles pour la gestion et l’optimisation des entrepôts de données, ainsi que pour la prise de décision basée sur la data.

🛠️ Analyse avancée avec le langage MDX (Multidimensional Expressions. J’ai découvert et pratiqué le langage MDX, utilisé pour interroger et manipuler les cubes OLAP :

  • Écriture de requêtes MDX pour explorer les données stockées dans le cube.
  • Calcul et agrégation de mesures pour obtenir des indicateurs stratégiques.
  • Création de rapports et analyses dynamiques pour la Business Intelligence.

📊 Création et exploitation d’un cube OLAP Grâce à SSIS, j’ai appris à modéliser et concevoir un cube OLAP (Online Analytical Processing) pour structurer les données en dimensions et mesures. Cela m’a permis de :

  • Optimiser les analyses multidimensionnelles pour faciliter les prises de décision.
  • Gérer efficacement de grands volumes de données en structurant les faits et dimensi
  • ons. Améliorer la performance des requêtes analytiques en organisant les données de manière hiérarchique.

🔍 Comprendre et maîtriser le processus ETL avec SSIS

  • Extraction des données depuis différentes sources (fichiers, bases SQL, API).
  • Transformation des données via des opérations de nettoyage, d’agrégation et de formatage.
  • Chargement des données dans une base SQL en garantissant leur intégrité et leur qualité
  • Automatisation des flux de données avec la planification et l’optimisation des workflows SSIS.

Lors de ce semestre, j’ai approfondi mes compétences en préparation et intégration de données, un aspect fondamental en science des données et en Business Intelligence. Grâce à l’apprentissage de SQL Server Integration Services (SSIS), j’ai pu comprendre et mettre en œuvre les différentes étapes du processus ETL (Extract, Transform, Load) afin de structurer et analyser efficacement les données.

Préparation/Intégration de données

Suivant

Mise en situation

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

🎨 Intégration et Design

  • Web Structuration des pages avec HTML et CSS pour un rendu professionnel.
  • Introduction aux frameworks et bibliothèques complémentaires pour améliorer l’ergonomie et l’expérience utilisateur.

🌐 Déploiement et Hébergement d’une Application Web

  • Hébergement d’une application en ligne en configurant un serveur web (ex : Apache, PHPMyAdmin).
  • Gestion des droits et permissions pour sécuriser l’accès aux données.
  • Introduction aux sessions et cookies pour la gestion des utilisateurs et des authentifications.

💾 Connexion à une base de données et manipulation des données

  • Utilisation de MySQL avec PHP via PDO/MySQLi pour exécuter des requêtes SQL.
  • Création et gestion d’une base de données accessible en ligne. Développement d’un formulaire de saisie permettant d’envoyer et stocker des informations en base.
  • Lecture, mise à jour et suppression des données (CRUD : Create, Read, Update, Delete).

🔍 Développement en PHP : Créer des applications web dynamiques

  • Maîtrise des bases du langage PHP : variables, boucles, fonctions, sessions.
  • Génération de pages web dynamiques en interaction avec des utilisateurs.
  • Gestion des requêtes GET et POST pour transmettre des données.
  • Validation et sécurisation des entrées utilisateur pour éviter les injections SQL.

Durant ce semestre, j’ai acquis des compétences en développement web dynamique, en particulier avec PHP, un langage essentiel pour la création de sites interactifs et la gestion des bases de données en ligne. J’ai appris à concevoir et intégrer des formulaires web connectés à une base de données, tout en assurant un traitement sécurisé des informations.

Programmation web

Suivant

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Modèle linéaire

Classification automatique

Méthodes factorielles

BCC n°2 : Analyser statistiquement les données

10

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

🔎 Analyse Factorielle des Correspondances (AFC) : Étudier des tableaux de contingence L’AFC est une technique spécifique permettant d’analyser les relations entre deux variables qualitatives, notamment via des tableaux croisés. Elle permet de :

  • Mettre en évidence les correspondances entre les modalités d’un tableau de contingence.
  • Visualiser ces liens sous forme de graphiques en deux dimensions.
  • Détecter des catégories qui se rapprochent statistiquement et mieux comprendre les tendances des données.

📊 Analyse des Correspondances Multiples (ACM) : Étudier des variables qualitatives L’ACM est utilisée lorsque l’on travaille avec des variables qualitatives (catégorielles) et permet de :

  • Regrouper des individus en fonction de caractéristiques communes.
  • Détecter des associations entre catégories et visualiser ces liens sous forme de nuages de points.

🔍 Analyse en Composantes Principales (ACP) : Synthétiser et visualiser des données numériques L’ACP est une méthode utilisée pour réduire la dimensionnalité des données tout en conservant un maximum d’informations. Elle permet de :

  • Identifier des axes principaux expliquant la variance des données.
  • Construire des représentations graphiques facilitant l’interprétation des relations entre variables et individus.
  • Détecter des corrélations entre variables et créer des profils types.
  • Optimiser l’analyse de grands jeux de données sans perte significative d’information.

Lors de ce semestre, j’ai acquis des compétences en analyse factorielle, une branche essentielle de la statistique multivariée utilisée pour explorer et visualiser des relations complexes entre plusieurs variables. J’ai appris à appliquer différentes méthodes factorielles comme l’Analyse en Composantes Principales (ACP), l’Analyse des Correspondances Multiples (ACM) et l’Analyse Factorielle des Correspondances (AFC) afin de simplifier et interpréter des ensembles de données multidimensionnels.

Méthodes factorielles

Suivant

Mise en situation

11

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

📊 Classification Ascendante Hiérarchique (CAH) : Construire une hiérarchie de groupes La CAH est une méthode de classification agglomérative, où chaque observation commence comme un cluster indépendant, puis des regroupements progressifs sont effectués selon des critères de proximité. 🛠 Principes de la CAH :

  • Construction d’une matrice de distances entre les observations.
  • Fusion progressive des classes selon un critère d’agrégation (moyenne, minimum, maximum…).
  • Représentation des résultats sous forme de dendrogramme, permettant d’identifier le nombre optimal de clusters.

🔍 Méthodes de Classification : Regrouper efficacement les données La classification automatique consiste à identifier des groupes naturels dans un ensemble de données en fonction de leurs similitudes. Elle est largement utilisée en marketing, biostatistique, finance et intelligence artificielle pour regrouper des clients, des produits ou des comportements similaires. Parmi les méthodes étudiées :

  • Clustering hiérarchique : Construction d’une hiérarchie de groupes à partir des données.
  • Partitionnement (K-means, K-medoids, DBSCAN, etc.) : Séparation des données en K groupes distincts, optimisant la distance intra-cluster.
  • Évaluation des clusters : Mesure de la qualité du regroupement via des indicateurs comme l’indice de Dunn, silhouette score.

Lors de ce semestre, j’ai approfondi mes compétences en classification automatique, une méthode essentielle en science des données permettant de regrouper des individus ou objets en classes homogènes selon des critères spécifiques. J’ai appris à utiliser différentes approches de segmentation des données, notamment la Classification Ascendante Hiérarchique (CAH) et d’autres techniques de clustering.

Classification automatique

Mise en situation

Suivant

12

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

📊 Analyse de la Variance (ANOVA) à un Facteur L’ANOVA permet d’étudier l’effet d’une variable qualitative sur une variable quantitative. J’ai appris à :

  • Modéliser une variable quantitative dépendante en fonction d’un facteur qualitatif.
  • Réaliser un test global pour évaluer l’influence du facteur sur la variable étudiée.
  • Analyser individuellement les modalités du facteur et interpréter les différences observées.

📝 Régression Linéaire MultipleLorsqu’une seule variable explicative ne suffit pas, la régression linéaire multiple permet d’intégrer plusieurs facteurs dans le modèle. J’ai appris à :

  • Construire un modèle prenant en compte plusieurs variables indépendantes.
  • Calculer et interpréter le coefficient de détermination pour évaluer la qualité du modèle.
  • Effectuer un test global de significativité et des tests marginaux de Student pour chaque variable.
  • Identifier les observations atypiques et mesurer leur impact sur le modèle.
  • Sélectionner les variables les plus pertinentes grâce à des procédures de sélection de modèles.

📄 Régression Linéaire SimpleLa régression linéaire simple est un outil fondamental permettant de modéliser une variable quantitative en fonction d’une seule variable explicative. J’ai appris à :

  • Construire un modèle de régression linéaire en fonction d’une seule variable indépendante.
  • Représenter graphiquement la relation entre les variables et interpréter le coefficient de détermination.
  • Effectuer des tests de significativité pour valider la relation entre les variables.
  • Analyser les résidus, détecter les points influents et identifier les valeurs atypiques.
  • Utiliser le modèle pour faire des prévisions et estimer des valeurs futures.

Lors de ce semestre, j’ai développé des compétences en modélisation statistique et en analyse de données, me permettant d’expliquer et de prédire une variable quantitative en fonction d’une ou plusieurs variables explicatives. J’ai notamment appris à utiliser la régression linéaire simple et multiple ainsi que l’analyse de la variance pour mieux comprendre les relations entre différentes variables.

Modèle linéaire

Mise en situation

Suivant

13

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Exploration et valorisation de la donnée dans un cadre juridique et économique

Communication scientifique et argumentation

Anglais scientifique et argumentation

BCC n°3 : Valoriser une production dans un contexte professionnel

14

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

📧 Rédaction et gestion des communications écrites

  • Écrire des e-mails professionnels en anglais (demandes, réponses, suivis).
  • Rédiger des résumés et abstracts scientifiques pour des rapports ou des publications.
  • Synthétiser des informations complexes pour les rendre accessibles à un public large.

🗣️ Développement des compétences en argumentation L’argumentation est une compétence clé pour convaincre et structurer une idée de manière claire et efficace. J’ai appris à :

  • Construire un discours structuré (introduction, développement, conclusion).
  • Utiliser des expressions clés pour argumenter et défendre un point de vue en anglais.
  • Présenter des chiffres et résultats analytiques de manière impactante.
  • Adapter mon argumentation en fonction du contexte (présentation de projet, débat, discussion professionnelle).

🔍 Communication professionnelle en anglais Dans un monde où l’anglais est la langue dominante du numérique et de la science des données, il est essentiel de maîtriser :

  • La rédaction de documents professionnels (rapports, e-mails, documentation technique).
  • La présentation et l’explication de résultats en anglais lors de réunions ou conférences.
  • L’argumentation et la défense d’un projet devant un public anglophone.
  • L’adaptation du ton et du registre de langage selon l’audience (technique, business, grand public).

Lors de ce semestre, j’ai renforcé mes compétences en communication professionnelle en anglais, en mettant l’accent sur le vocabulaire spécifique au domaine du numérique et de la data science. Cette ressource m’a permis de mieux comprendre et produire des documents techniques et argumentatifs, essentiels dans un environnement professionnel international.

Anglais scientifique et argumentation

Suivant

15

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

📊 Argumentation et présentation des résultats Un bon rapport ne se limite pas à une description des tâches effectuées, il doit aussi démontrer une capacité d’analyse et de réflexion. J’ai appris à :

  • Construire une démonstration logique et argumentée pour expliquer mes choix et décisions.
  • Mettre en valeur mes résultats avec des graphiques, tableaux et schémas clairs.
  • Conclure efficacement en proposant une réflexion critique sur l’expérience et en envisageant des axes d’amélioration.

📝 Amélioration de la clarté et de la précision rédactionnelle La communication scientifique exige une rédaction claire, concise et argumentée. J’ai appris à :

  • Adapter mon style d’écriture en fonction du public visé (enseignants, professionnels, recruteurs).
  • Employer un vocabulaire technique précis, sans surcharge d’informations inutiles.
  • Structurer les idées avec des titres et sous-titres pertinents.
  • Éviter les erreurs courantes (redondance, imprécision, manque de fluidité).

📄 Rédaction d’un rapport de stage La rédaction d’un rapport de stage requiert une méthodologie précise et rigoureuse. J’ai appris à :

  • Structurer un document selon les standards académiques et professionnels.
  • Présenter l’entreprise, le contexte du stage et les missions réalisées de manière claire.
  • Développer une analyse critique des compétences acquises et des difficultés rencontrées.
  • Formuler des recommandations et perspectives d’amélioration basées sur l’expérience vécue.

Lors de ce semestre, j’ai développé des compétences en rédaction scientifique et communication professionnelle, essentielles pour structurer et présenter des travaux techniques de manière claire et argumentée. En particulier, j’ai appris à rédiger un rapport de stage, un document fondamental pour formaliser et transmettre une expérience professionnelle de manière structurée et pertinente.

Communication scientifique et argumentation

Suivant

16

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

📊 Valorisation de la Donnée Juridique et Économique Les décisions juridiques et économiques s'appuient sur des données qu'il faut savoir analyser et présenter de manière pertinente. J’ai appris à :

  • Construire une argumentation basée sur l’analyse de textes juridiques.
  • Synthétiser des informations juridiques et économiques pour une meilleure compréhension.
  • Présenter des données sous forme de tableaux et schémas explicatifs.

📝 Analyse Juridique des Faits et des Acteurs L'étude du droit ne se limite pas à la théorie : elle implique une analyse rigoureuse des faits et des acteurs juridiques intervenant dans la résolution des conflits. J’ai appris à :

  • Identifier les différents niveaux de juridiction (cour d’appel, Cour de cassation, etc.).
  • Comprendre les rôles et compétences de chaque instance judiciaire.
  • Analyser des cas concrets et en extraire les enjeux juridiques.

📄 Compréhension du Droit du Travail et des Contrats Le droit du travail régit les relations entre employeurs et salariés, et sa maîtrise est cruciale pour appréhender les implications légales des contrats et des obligations des parties. J’ai appris à :

  • Identifier les caractéristiques des différents contrats de travail (CDD, CDI, etc.).
  • Comprendre les obligations et droits des employeurs et salariés.
  • Analyser les conditions de rupture de contrat, y compris le licenciement et ses motifs.
  • Lire et interpréter une fiche de paie et ses éléments constitutifs.

Lors de ce semestre, j’ai développé des compétences essentielles en droit du travail et en analyse juridique, me permettant de comprendre et d’interpréter les aspects réglementaires et économiques liés à la gestion des données et des relations professionnelles. J’ai notamment acquis des connaissances sur les différents types de contrats de travail, les documents administratifs importants et l'analyse des faits et des acteurs du système judiciaire.

Exploration et valorisation de la donnée dans un cadre juridique et économique

Suivant

13

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Programmation web

Préparation/Intégration de données

BCC n°4: Développer un outil décisionnel

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

💡 En résumé, cette matière m’a permis de maîtriser l’intégration et la transformation des données avec SSIS, de concevoir et exploiter un cube OLAP, et d’analyser des données multidimensionnelles à l’aide du langage MDX. Ces compétences sont essentielles pour la gestion et l’optimisation des entrepôts de données, ainsi que pour la prise de décision basée sur la data.

🛠️ Analyse avancée avec le langage MDX (Multidimensional Expressions. J’ai découvert et pratiqué le langage MDX, utilisé pour interroger et manipuler les cubes OLAP :

  • Écriture de requêtes MDX pour explorer les données stockées dans le cube.
  • Calcul et agrégation de mesures pour obtenir des indicateurs stratégiques.
  • Création de rapports et analyses dynamiques pour la Business Intelligence.

📊 Création et exploitation d’un cube OLAP Grâce à SSIS, j’ai appris à modéliser et concevoir un cube OLAP (Online Analytical Processing) pour structurer les données en dimensions et mesures. Cela m’a permis de :

  • Optimiser les analyses multidimensionnelles pour faciliter les prises de décision.
  • Gérer efficacement de grands volumes de données en structurant les faits et dimensi
  • ons. Améliorer la performance des requêtes analytiques en organisant les données de manière hiérarchique.

🔍 Comprendre et maîtriser le processus ETL avec SSIS

  • Extraction des données depuis différentes sources (fichiers, bases SQL, API).
  • Transformation des données via des opérations de nettoyage, d’agrégation et de formatage.
  • Chargement des données dans une base SQL en garantissant leur intégrité et leur qualité
  • Automatisation des flux de données avec la planification et l’optimisation des workflows SSIS.

Lors de ce semestre, j’ai approfondi mes compétences en préparation et intégration de données, un aspect fondamental en science des données et en Business Intelligence. Grâce à l’apprentissage de SQL Server Integration Services (SSIS), j’ai pu comprendre et mettre en œuvre les différentes étapes du processus ETL (Extract, Transform, Load) afin de structurer et analyser efficacement les données.

Préparation/Intégration de données

Suivant

Mise en situation

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

🎨 Intégration et Design

  • Web Structuration des pages avec HTML et CSS pour un rendu professionnel.
  • Introduction aux frameworks et bibliothèques complémentaires pour améliorer l’ergonomie et l’expérience utilisateur.

🌐 Déploiement et Hébergement d’une Application Web

  • Hébergement d’une application en ligne en configurant un serveur web (ex : Apache, PHPMyAdmin).
  • Gestion des droits et permissions pour sécuriser l’accès aux données.
  • Introduction aux sessions et cookies pour la gestion des utilisateurs et des authentifications.

💾 Connexion à une base de données et manipulation des données

  • Utilisation de MySQL avec PHP via PDO/MySQLi pour exécuter des requêtes SQL.
  • Création et gestion d’une base de données accessible en ligne. Développement d’un formulaire de saisie permettant d’envoyer et stocker des informations en base.
  • Lecture, mise à jour et suppression des données (CRUD : Create, Read, Update, Delete).

🔍 Développement en PHP : Créer des applications web dynamiques

  • Maîtrise des bases du langage PHP : variables, boucles, fonctions, sessions.
  • Génération de pages web dynamiques en interaction avec des utilisateurs.
  • Gestion des requêtes GET et POST pour transmettre des données.
  • Validation et sécurisation des entrées utilisateur pour éviter les injections SQL.

Durant ce semestre, j’ai acquis des compétences en développement web dynamique, en particulier avec PHP, un langage essentiel pour la création de sites interactifs et la gestion des bases de données en ligne. J’ai appris à concevoir et intégrer des formulaires web connectés à une base de données, tout en assurant un traitement sécurisé des informations.

Programmation web

Suivant

Dans le cadre de la SAÉ 4.EMS.01, j’ai dû modéliser une variable quantitative en fonction de plusieurs facteurs afin d'expliquer ses variations et d’en effectuer la prévision. Ce projet a mobilisé des outils statistiques avancés, notamment la régression linéaire multiple et l’analyse de variance (ANOVA), afin de construire un modèle prédictif et interprétable.

🔢Expliquer ou prédire une variable quantitative à partir de plusieurs facteurs

Dans le cadre de la SAÉ 4.02, j’ai mené une étude statistique avancée visant à analyser et modéliser les comportements des consommateurs de produits biologiques pour la société BioNutri. L’objectif de ce projet était de concevoir un reporting décisionnel automatisé basé sur des méthodes d’analyse exploratoire multivariée afin d’extraire des informations pertinentes pour l’aide à la décision.

📊 Reporting d’une analyse multivariée

🖥️ Développement d’un composant d’une solution décisionnelle

Dans le cadre de la SAÉ 4.VCOD.01, j’ai conçu et développé un composant décisionnel permettant d’intégrer et de traiter les nouvelles données d’une boutique de musique dans un environnement décisionnel. Ce projet s’inscrivait dans une démarche de programmation modulaire, visant à garantir l’interopérabilité du composant avec les autres éléments du système et à optimiser la gestion des flux de données.

17

Remerciement

Mise en situation

Développer

Valoriser

Analyser

Traiter

Mes projets et compétences professionnels

Profil

Mise en situation

+ INFO

+ INFO

+ INFO

Afin de mettre en pratique mes compétences en traitement, analyse, valorisation et développement des données, j’ai travaillé sur plusieurs projets concrets. Chaque projet m’a permis d’approfondir des compétences spécifiques tout en répondant à des problématiques réelles. Voici un aperçu des défis rencontrés et des solutions que j’ai mises en place.

JE vous remercie

BOUROUIS Sajid

Voir projet

Ce projet m’a permis de développer une expertise en modélisation statistique, en sélection de modèles et en validation d’hypothèses. J’ai acquis une compréhension approfondie des enjeux liés à l’explication et à la prédiction d’une variable quantitative dans un cadre métier, ainsi que des compétences en communication des résultats analytiques.

3. Validation et interprétation des résultats

  • Vérification de la significativité des coefficients du modèle.
  • Étude des résidus pour identifier d’éventuels problèmes d’ajustement.
  • Sélection du modèle le plus performant en fonction des critères statistiques et métiers.
  • Élaboration d’un reporting expliquant les résultats de la modélisation et leur interprétation.

2. Mise en place du modèle de régression

  • Sélection du type de modèle en fonction des variables disponibles : régression linéaire multiple, ANOVA ou analyse de covariance.
  • Ajustement du modèle et estimation des coefficients des variables explicatives.
  • Vérification des hypothèses sous-jacentes à la régression (normalité des résidus, homoscédasticité, indépendance des erreurs).
  • Détection et gestion des problèmes de multicolinéarité entre variables explicatives. Comparaison de plusieurs modèles à l’aide d’indicateurs statistiques (AIC, R², p-values, test de Fisher).

1. Préparation et exploration des données

  • Identification des variables explicatives pertinentes (quantitatives et qualitatives) pour expliquer la variable cible.
  • Nettoyage et transformation des données pour assurer leur cohérence et détecter les valeurs aberrantes.
  • Vérification des relations entre variables via des analyses préliminaires (corrélations, visualisations graphiques, etc.).

Reporting

  • Créer des tableaux de bord interactifs pour faciliter la prise de décision
  • Utiliser des outils de visualisation comme Power BI,Qlick sense ou Business Object
  • Synthétiser et rendre accessibles des résultats complexes
  • Présenter des insights pertinents sous forme graphique et dynamique

Voir projet

Grâce à ce projet, j’ai approfondi mes compétences en analyse multivariée, en reporting automatisé et en interprétation des données statistiques. Ce travail a permis d’extraire des informations stratégiques pour BioNutri, contribuant ainsi à l’amélioration de leurs décisions marketing et commerciales.

3. Automatisation et restitution des résultats

  • Développement d’un reporting interactif via SAS permettant d’explorer dynamiquement les résultats de l’analyse.
  • Mise en place d’un processus d’automatisation pour garantir la mise à jour périodique des analyses.
  • Sélection et présentation des indicateurs clés afin de faciliter l’interprétation des résultats pour les décideurs de BioNutri.
  • Rédaction d’une documentation détaillée expliquant la méthodologie employée, les interprétations statistiques et les recommandations stratégiques.

2. Analyse statistique et modélisation (Lien avec la ressource R4.02)

  • Utilisation de l’Analyse en Composantes Principales (ACP) pour réduire la dimensionnalité et identifier les axes majeurs d’interprétation des habitudes de consommation.
  • Mise en œuvre de l’Analyse Factorielle des Correspondances (AFC) et de l’Analyse des Correspondances Multiples (ACM) pour explorer les liens entre catégories de consommateurs et comportements d’achat. Application de la Classification Ascendante Hiérarchique (CAH) afin de segmenter les consommateurs en groupes homogènes selon leurs réponses.
  • Interprétation des résultats en analysant les projections factorielles et les dendrogrammes issus des classifications.
  • Validation des modèles en prenant en compte les conditions d’application et les limites méthodologiques des analyses effectuées.

1. Préparation et structuration des données

  • Étude du fichier de données TAB-DONNEES-BioNutri.xlsx contenant les réponses de 300 consommateurs.
  • Sélection et nettoyage des variables pertinentes (habitudes d’achat, motivations, profil socio-démographique) pour garantir une qualité optimale des données.
  • Normalisation et transformation des données pour assurer leur cohérence et leur exploitabilité.
  • Exploration initiale pour identifier les corrélations et tendances générales des réponses.

Surveillance d'examen Gestion du stress et travail dynamique Gestion de l’équipe et collaboration Gestion du matériel d'examen Communication et interaction avec divers profils Sens du détail

Compétences personnelles acquises grâce à mon job étudiant :

Compétences personnelles acquises grâce aux ressources :

Gestion du temps et organisation Créativité et résolution de problèmes Esprit critique et analyse Autonomie et prise d'initiative Collaboration et travail d'équipe Adaptabilité et apprentissage continu Communication efficace (écrite et orale) Rigueur et précision Capacité à travailler sous pression
  • Nettoyer, structurer et préparer les données pour l’analyse
  • Manipuler de grands volumes de données efficacement avec Python et SQL
  • Identifier et corriger les anomalies et valeurs aberrantes
  • Appliquer des techniques de feature engineering pour enrichir les jeux de données

Traiter les données

  • Construire des modèles statistiques et algorithmiques adaptés aux problématiques métiers
  • Développer des modèles de machine learning pour la classification et la prédiction
  • Optimiser et évaluer la performance des modèles avec des métriques adaptées
  • Adapter et ajuster les modèles en fonction des besoins et des jeux de données

Modélisation des données

3. Automatisation et tests

  • Avant d’alimenter le datawarehouse final, j’ai utilisé mes compétences en tests pour vérifier son bon fonctionnement sans impacter l’application existante.
  • J’ai recréé un datawarehouse fictif, dans lequel j’ai inséré les données, afin de valider les flux ETL et identifier d’éventuels problèmes en amont.
  • Mise en place de tests unitaires, d’intégration et de système pour garantir la fiabilité et la performance du datawarehouse.
  • Documentation rigoureuse des tests et des processus pour faciliter la maintenance et l’évolution du système.
Grâce à ce projet, j’ai renforcé mes compétences en modélisation décisionnelle, automatisation des flux ETL et assurance qualité des données. L’approche rigoureuse adoptée pour tester et valider le datawarehouse m’a permis de mieux appréhender les enjeux de la mise en production d’une solution décisionnelle en milieu professionnel.

2. Développement des flux d’alimentation sur SSIS

  • Mise en place de flux ETL sous SSIS pour automatiser l’alimentation du datawarehouse à partir des données initiales.
  • Transformation et normalisation des données pour garantir leur cohérence et leur qualité.
  • Vérification de l’interopérabilité du datawarehouse avec le reste de la chaîne décisionnelle.

1. Modélisation et structuration des données

  • Création d’un DSA (Data Staging Area) pour stocker temporairement les données brutes issues de la boutique de musique.
  • Conception d’un ODS (Operational Data Store) pour structurer et nettoyer les données avant leur intégration dans l’entrepôt de données.
  • Développement d’un datawarehouse adapté au nouveau jeu de données afin de faciliter l’analyse et l’exploitation des informations.

Voir projet

Data Engineering

  • Concevoir et optimiser des bases de données relationnelles et NoSQL
  • Intégrer et transformer des données issues de différentes sources
  • Automatiser les pipelines de traitement des données
  • Assurer la qualité et la fiabilité des données traitées