Consultant Senior Data Engineer (H/F) - Paris - 2024

Résumé du poste
CDI
Courbevoie
Salaire : Non spécifié
Télétravail non autorisé
Expérience : > 5 ans
Éducation : Bac +5 / Master
Compétences & expertises
Centos
Tensorflow
Gitlab
Mysql
Debian
+14
Postuler

Mazars et la Tech
Mazars et la Tech

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Rejoindre l’équipe Data Services de Mazars, c’est rejoindre une équipe de plus de 30 consultants spécialistes de la data, répartis sur 2 hubs (Paris La Défense, New-York).  
Au sein du DataLab, nos domaines d’expertises couvrent l’ensemble de la chaîne de valeur de la donnée : Data Strategy et qualification de cas d’usage, Gouvernance et qualité des données, Gestion des données de référence (MDM), Data transformation, Data Architecture, Data Engineering, Data Science, Data Visualisation et Analytics,

Formation à tous niveaux sur ces précédents sujets.  

Vous serez formé(e) à nos méthodologies et aurez l'opportunité de travailler au sein d'équipes pluridisciplinaires, y compris les équipes de R&D qui développent et maintiennent nos outils d'Analytics ainsi que notre infrastructure interne (GitLab-CI, Cloud privé OpenNebula, CephFS, etc...).


Vous interviendrez de façon opérationnelle sur des missions de conseil data ambitieuses et innovantes pour nos clients du CAC40 et SBF120, en France et à l'international. Vous participerez notamment à :


• L'amélioration de la performance opérationnelle de nos clients au travers de l’exploitation et la valorisation de données sur des cas d’usage métier concrets (stratégie, marketing et vente, R&D, finance, etc..).

• L’interaction directe avec nos clients dont nous analysons les problématiques pour les aider à implémenter des solutions technologiques sur-mesure.

• Le développement de bout en bout de flux de données, depuis l'extraction et la transformation des données de nos clients, jusqu’à leur consommation par des systèmes ou applications web et tableaux de bord que nous concevons pour eux, en passant par les datalake, data-warehouse, data-marts ou API qui exposent ces données.

• Déploiement de pipelines de données dans le paradigme serverless cloud (AWS Lambdas, Azure Functions, GC Functions, etc.) mais aussi utilisation de techniques DevOps et de virtualisation bare-metal avancées au sein d'une équipe pionnière du MLOps (équipe opérationnelle en CI/CD depuis 2013).


Profil recherché

Profil recherché


De formation Bac+5 type école d’ingénieur généraliste ou spécialisée, ou d'un 3ème cycle dans un domaine connexe à la data (systèmes d’informations, traitements de données, big data, statistiques, génie logiciel, etc.) :

Vous avez déjà montré un intérêt pour le domaine du développement applicatif intégrant une composante Data, à travers des stages, cours ou projets personnels impliquant le développement back-end et/ou front-end d’une application.

 

Vous avez une expérience pratique et une bonne connaissance de :

  • Un ou plusieurs langages de programmation analytique (Python, SQL, R, etc.)
  • Une ou plusieurs couches de persistance (SGBD relationnel : MySQL / MSSQL / PostgreSQL, No- SQL : MongoDB / ElasticSearch / Node4j, ou encore S3)
  • La conception et/ou l’implémentation et/ou la manipulation de datalakes, data warehouses ou data- marts
  • L’implémentation de pipelines ETL et de scripts de transformation / d’analyse de données (Python, R,Spark)
  • Vous n’envisagez pas de travaux sérieux en dehors d’un système Linux (Ubuntu, Debian, CentOS), ou sans système de contrôle de version (Git), et l’utilisation d'une chaîne d'intégration vous parait naturelle
  • Vous pensez que l’écosystème tech open-source est un puissant terrain de jeu à la pointe de la technologie,
  • qui met à disposition l’ensemble des outils nécessaires à la réalisation des projets les plus ambitieux.
  • Vous souhaitez travailler avec les utilisateurs métiers et les clients pour comprendre leurs besoins.
  • Vous êtes curieux (se), autonome, entreprenant(e) et savez faire preuve d’initiatives.
  • Vous maîtrisez l'anglais oral et écrit.

 

Une première expérience des technologies suivantes est un plus :

  • Sensibilisation à la qualité logicielle et aux chaînes d'intégration continue (DevOps : Ansible, Terraform, CI/CD)
  • Sensibilisation à l’interaction avec des équipes fullstack pluridisciplinaires (RestAPI, VueJS)
  • Expérience sur l’un des cloud providers (Azure, AWS, GCP), avec des outils modernes de Data Engineering :
  • Redshift, Azure Synapse, Databricks, …
  • Chaîne d'analyse prédictive (scikit-learn, TensorFlow, etc..)
  • Outil de Business Intelligence (Power BI, Qlik, Tableau, etc.)

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler