Data Cloud Architect H / F > Nanterre > Joboolo FR :
Société : ScaleSquad Lieu : Nanterre 92000
Scalesquad est une ESN, filiale du groupe Neurones IT de plus de 800 collaborateurs autour des métiers du digital et de l’IT.
Forts de 800 collaborateurs et partenaires en prestation, d'un portefeuille de plus de 250 clients, nous nous appuyons sur une expérience de plus de 30 ans de projets réussis.
Nous avons pour ambition de devenir le 1er infogérant des services innovants en nous appuyant sur nos expertises autour du Cloud, des solutions d’automation, du DevOps.
Nous intervenons dans tous les domaines liés aux infrastructures :
Conseil et gestion du SI, cloud, cyber sécurité, réseaux et sécurité, systèmes et applications, infrastructures clients, ingénierie de production.
Scalesquad, satellite du groupe Neurones IT, accompagne actuellement plus de 100 clients dans leurs transformations cloud, le refactoring de leurs applications et les services managés.
Présentation du poste
Nous recherchons un Architecte DATA expérimenté, pour piloter la conception, l’architecture et le déploiement d’une solution de datalake répondant aux besoins stratégiques de l’entreprise.
Ce datalake pourrait être déployé soit on-premises, soit sur le Cloud Azure, en fonction des contraintes techniques et économiques du projet.
Dans ce rôle, vous devrez intégrer plusieurs dimensions clés :
La conception et la mise en œuvre d’une architecture scalable et performante,
Le bon choix des solutions techniques adaptées (on-premises vs cloud Azure),
La mise en place des outillages nécessaires à la collecte, la transformation, et la gouvernance des données,
L’évaluation financière du projet, en assurant un alignement coûts-efficacité et en optimisant les budgets.
Vos principales responsabilités :
Conception et architecture :
Définir une architecture cible pour le datalake qui prenne en compte les spécificités techniques et économiques de chaque option (on-premises et cloud Azure).
Conduire des études comparatives entre des solutions on-premises et cloud afin de proposer des recommandations stratégiques.
Concevoir un système qui garantit la pérennité, la flexibilité et le niveau de sécurité requis par l’organisation.
Mise en œuvre et gouvernance :
Déployer le datalake en tenant compte des normes de sécurité, des besoins en gestion des données sensibles et des contraintes réglementaires (RGPD, etc.).
Superviser l’intégration des données issues de diverses sources, leur stockage, transformation, et mise à disposition pérenne pour les utilisateurs finaux (ex :
data analysts, data scientists).
Mettre en place une gouvernance structurée :
catalogage (métadonnées), gestion de la qualité, suivi du lineage et supervision des flux de données.
Évaluation financière et maîtrise des coûts :
Réaliser des estimations précises des coûts d’implémentation, y compris ceux inhérents aux infrastructures informatiques, licences logicielles, équipes projet et maintenance opérationnelle.
Modéliser différents scénarios coût-performance entre une solution on-premises et cloud Azure (TCO – Total Cost of Ownership).
Proposer des solutions pour optimiser les coûts tout en maintenant les exigences de performance et de sécurité.
Collaboration et support :
Collaborer avec les équipes Data, IT, Infrastructure et Sécurité pour garantir la cohérence des choix techniques et opérationnels.
Accompagner les équipes et les parties prenantes dans la montée en compétence sur l’écosystème technologique mis en place et vous positionner comme un / une interlocuteur(trice) de référence sur le sujet.
Expertise technique requise
Technologies de datalake :
Expérience avec la conception et le déploiement de datalakes dans des environnements on-premises (ex :
Hadoop, Cloudera, Hortonworks) et / ou cloud Azure (ex :
Azure Data Lake Storage, Synapse Analytics, Databricks).
Familiarité avec les formats de stockage de données (Parquet, ORC, Avro), ainsi que les frameworks de traitement des données, notamment Apache Spark et Flink.
Connaissance des outils d'ingestion et transformation de données tels que Talend, Azure Data Factory ou Apache NiFi.