Titulaire d'un Bac +5 (école d’ingénieurs ou université avec spécialisation dans le domaine de la data), votre mission consistera à concevoir des systèmes permettant de collecter, structurer et rendre accessibles les données.
Vous jouerez ainsi un rôle central dans le bon fonctionnement de l’écosystème data de l’entreprise.
En collaboration étroite avec les métiers, les équipes techniques et le CISO, vous garantirez la sécurité, la fiabilité et la disponibilité des données, essentielles à la prise de décision, à l’innovation et à l’optimisation des performances.
Rigoureux, et faisant preuve de logique, de curiosité technique et d’un esprit analytique, vous disposez d’une expérience significative dans un rôle similaire.
Au sein d’une DSI dynamique, vous jouerez un rôle important dans la mise en œuvre de nos objectifs stratégique au niveau local (FR) comme au niveau de la division (CH).
Responsabilités :
• Conception et mise en place de pipelines de données conçus pour le cloud :
ETL/ELT assurant qualité, fiabilité et scalabilité des processus.
• Gestion des bases de données :
élaborer des modèles de données répondant aux besoins des métiers, data warehousing, administration et sécurité.
• Intégration cloud Azure :
intégration et déploiement des processus ainsi que des ressources sur la plateforme Azure.
• Sécurité et conformité :
mettre en place des processus d’audit et de conformité en lien avec le CISO.
• Mise en œuvre et maintenance de processus automatisés de déploiement et de tests unitaires :
pipelines CI/CD, Git, tests unitaires.
• Collaboration avec les métiers pour la mise en œuvre de leurs projets stratégiques et la conception d’architectures techniques.
• Collaboration avec la division et les autres entités :
se conformer aux roadmaps globales (division) et aux guidelines en termes d’architectures et d’outils.
Compétences :
• Solide expertise en Python et SQL pour le traitement et l'automatisation des données, ainsi qu’une bonne connaissance des frameworks de traitement de données Python :
pandas, pydantic, PySpark, etc.
• Solide connaissance en architecture et gestion des bases de données :
data warehouse, data mart, data lake, schéma en étoile, etc.
• Expérience concrète sur la plateforme Azure (Data Factory, Azure Functions, Blob Storage, Key Vault, etc.).
• Bonne connaissance des pratiques et des outils DevOps :
Infrastructure as Code (Terraform), conteneurisation (Docker), pipelines CI/CD (Azure DevOps, Git), tests unitaires, pipelines YAML.
• Microsoft Power Platform :
Power BI, Power Apps, Power Automate.
• Une expérience de mise en œuvre de pipelines avec des ETL ou des plateformes data (Talend, SSIS, Airflow, Databricks, Snowflake) serait un plus.
• Autonomie et excellente communication :
savoir communiquer avec les métiers et collaborer efficacement avec les équipes en France et dans les autres entités (Suisse, Allemagne, Luxembourg, etc.), en français comme en anglais.
#J-1880
- Ljbffr
Swiss Life
Paris 92210
Autre(s)
0 mois