Dans le cadre de la typologie IT-T – Data Scientist, les missions génériques associées incluent :
- Établir des scénarios permettant de comprendre et d’anticiper de futurs leviers métiers ou opérationnels pour l’entreprise.
- Réaliser tout le cycle de valorisation de la donnée :
• Choix et collecte des données.
• Analyse de la qualité des données et redressement.
• Préparation des données.
• Valorisation spécifique à la Data Science (analyse prédictive voire prescriptive, mise en place d’algorithmes d’apprentissage automatique ou profond, conception de data visualizations dynamiques, data storytelling, etc.).
- Appliquer des techniques statistiques, de text mining, d’analyse comportementale, de géolocalisation, etc., pour l’extraction et l’analyse d’informations issues de gisements de données (Big Data).
- Obtenir des données adéquates et trouver les sources de données pertinentes :
• Recommandations sur les bases de données à consolider, modifier, rapatrier, externaliser, internaliser.
• Conception de datamarts et potentiellement d’entrepôts de données (data warehouses).
- Évaluer la qualité et la richesse des données :
• Rassembler les données, les modéliser et en vérifier la véracité.
- Analyser les résultats et les intégrer dans le système d’information cible du métier.
- Traduire une problématique métier en problème mathématique/statistique et réciproquement.
- Comparer et évaluer différents modèles ou méthodes de calcul, en anticipant les avantages et inconvénients dans un environnement métier donné.
2.
Périmètre fonctionnel et responsabilités principales
2.1.
Credit Risk Scoring
- Pour les équipes Risque / Validation :
• Concevoir et optimiser les scores d’octroi et de comportement en explorant des approches innovantes.
• Garantir la stabilité du coût du risque en entraînant et déployant ces solutions, et en assurant le monitoring de la dérive des modèles.
• Travailler en étroite collaboration avec les experts métiers et les équipes Risque.
2.2.
AI Solutions (IA appliquée aux parcours clients)
- Optimiser l’expérience client en intégrant les modèles d’IA en temps réel sous forme d’API dans les parcours digitaux (scoring temps réel, personnalisation des offres de paiement, etc.).
- Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques de développement (Cloud, MLOps).
- Collaborer avec les équipes Produit et IT pour industrialiser les solutions (mise en production, supervision, conformité aux standards de l’entreprise).
2.3.
GenAI (IA générative et agents)
- Prototyper et déployer en production des solutions d’IA générative sous forme d’agents (LLM, RAG, etc.) pour :
• Transformer les processus internes (Marketing, Audit, Risque, …).
• Améliorer la relation et le support client.
- Mettre en place des architectures « agentic » pour :
• Automatiser l’octroi d’offres de crédit (Risque).
• Automatiser des tâches complexes d’analyse documentaire.
• Faciliter l’interaction avec les clients.
- Évaluer, optimiser et monitorer les performances des agents (cohérence, diversité, usage de LLM as a Judge, etc.).
Profil candidat:
3.
Expertises techniques recherchées
3.1.
Data Science & Machine Learning
- Solide expérience en modèles supervisés :
• Régression logistique.
• Modèles à arbres de décision.
• Modèles de Gradient Boosting (XGBoost / LightGBM).
- Connaissance et mise en œuvre d’approches explicables (SHAP, LIME, explainable AI) pour l’interprétabilité des modèles, notamment dans un contexte de risque.
- Pratique des modèles génératifs et des LLM :
• Utilisation de frameworks et API de LLM (OpenAI, HuggingFace, fine-tuning, etc.).
3.2.
Écosystème Data Engineering & MLOps
- Excellente maîtrise du langage Python et de l’écosystème ML :
• Pandas, Scikit-learn.
• MLflow.
• Pydantic.
• LangChain, LangGraph.
• FastAPI.
- Bonnes pratiques de développement :
• Packaging, CI/CD, tests (pytest), feature stores.
- Mise en production de modèles :
• Déploiement de modèles sous forme d’API.
• Mise en place de pipelines automatisés (MLflow, GitHub Actions, Kubernetes, Docker).
- Monitoring et fiabilité :
• Suivi de la qualité des données, des performances et des métriques d’évaluation.
• Back testing.
• Suivi de la dérive de données / concept drift.
• Évaluation de systèmes RAG (RAGAS) et approches de type LLM as a Judge.
3.3.
Outils & Cloud
- Environnement Cloud et data :
• Azure (dont Azure ML, Foundry).
• Databricks.
• pySpark.
- Outils collaboratifs et de gestion de code :
• Confluence, JIRA.
• Bitbucket, GitLab, Azure DevOps.
3.4.
Compétences bonus
- Une connaissance technique de Snowflake est un plus.
- Une bonne compréhension des enjeux bancaires réglementaires (scoring, réglementation) est un plus.
4.
Profil recherché
- Expérience :
• 5 à 7 ans d’expérience.
- Parcours :
• Profil mixte Data Science + mise en production / MLOps.
- Positionnement technique et fonctionnel :
• À l’aise pour discuter aussi bien de modélisation ML que d’architecture du SI.
• Capacité à travailler avec de multiples métiers :
Risque, Paiement, Digital, Fraude, Conformité, etc.
- Appétence et état d’esprit :
• Goût prononcé pour le delivery, l’expérimentation et les environnements où l’IA a un impact direct sur l’expérience client.
• Intérêt fort pour les solutions d’IA générative et les approches « agentic ».
LeHibou
Croix 59170
Autre(s)
Freelance
100000€ par an 100000