Actuellement en reconversation professionnelle j'ai travaillé pendant 5 ans en tant qu'Analyste financier spécialisé dans le Rachat de Crédits. A ce jour, j'ai repris mes études pour obtenir un Master Chef de Projet Data & IA en Alternance afin de pouvoir allier mes connaissances financières à l'analyse de données. Pour toute demande ou projet, vous pouvez me contacter : damienlauger34@gmail.com ou sur linkedin
Je travaille actuellement au sein de l'entreprise SPIE CityNetworks en tant qu'analyste de données, mes missions principales sont :
- Gestion du flux de données,
- Administration base de données,
- ETL,
- Creation de dashboards, actualisation et interprétation des données,
- Participation à l'élaboration d'une IA capable d'analyser un appel d'offres afin d'aider à la prise de décision.
Alternant au sein de Nexa Digital School, j'acquiert les compétences suivantes :
- Analyse de données + Dashboard sous R et Rshiny
- SQL + MongoDB,
- Power BI,
- Datathon + Présentation de projet
- Python (EDA, Web Scrapping, Web application)
- Data Science (Scikit-learn, KNN, XGBoost pour la classification & prédiction + YOLO pour la détection objet)
Cliquez sur les onglets en bleu pour accéder aux différents projets
Projet RSHINY -> Développement d'une application pour l'analyse des données criminelles à Los Angeles de 2020 à ce jour ainsi que des visualisations
Projet SQL -> Projet SQL pour apprendre SQL à un novice + utilisation de la fonction Trigger
Projet HTML/CSS -> Projet HTML/CSS pour la création d'une application web. Projet collaboratif, pour la création d'un site web pour promouvoir un festival fictif
Projet Shiny Dashboard -> Projet en R collaboratif, création d'une application intéractive pour l'analyse des avis d'une plateforme mondiale de vente de vêtements en ligne
2nd Projet Shiny Dashboard -> Analyse des données Spotify comprenant des informations sur les KPI's, des graphiques interactifs et un tableau interactifs des données
Python EDA + Web Scrapping Projet + Automatisation mail -> Objectif de collecter, analyser et présenter les informations sur les happy hours des bars à Toulouse en utilisant des techniques de web scraping, d'analyse de données, de visualisation et d'envoi d'e-mails.
Dépôt de plusieurs projets prochainements dont :
[Football Classification Projet]
Computer vision projet identification d'objets -> Projet de Computer Vision avec analyse et traitement des images, créations de modèle CNN, SVM et application modèle Yolov5.
Modèle de classification de plantes avec dataset Kaggle -> Création d'une pipeline complet de deep learning avec la potentialité d'un cas d'usage réel;
[Scoring Bancaire avec dataset Kaggle]