Description du poste à pourvoir

🚀 À propos d'AMI Consulting 💡 Entreprise innovante & familiale – Lauréat de la bourse Innov'UP de BPI France en 2019, AMI Consulting est spécialisé dans l'exploitation de la data pour vous proposer des consultants experts adaptés à vos besoins. 🌱 Engagement durable & bien-être – Nous valorisons la qualité de vie de nos collaborateurs et adoptons une approche 100 % digitale pour la qualification, la sélection et l'intégration de nos talents, réduisant ainsi notre empreinte carbone.

🎯 Présentation de l'offre

  • Lieu : 93
  • Secteur : Banque
  • Télétravail : Occasionnel, selon les déplacements sur les autres sites
  • CDI de mission : Package entre 50 k€ en fonction du niveau d'expertise
  • Freelance : Le client ne prend pas de freelance
  • Expérience : Entre 6 et 8 ans (hors stages/alternances)
  • Français : Courant
  • Anglais : C1

🧠 Contexte de la mission

Dans le cadre de ses activités Big Data, une organisation du secteur de la protection sociale renforce ses équipes et recherche un Développeur Data expérimenté pour intervenir sur une plateforme Cloudera Hadoop.

La mission s’inscrit dans un environnement data à forte volumétrie, avec des enjeux majeurs autour de l’alimentation du DataLake, de la performance des traitements et de l’exploitation des données.

Le consultant interviendra au sein d’une équipe Big Data pour assurer le développement, la maintenance et l’optimisation des traitements, tout en accompagnant les utilisateurs et en contribuant à la structuration des pratiques data.

🧩 Responsabilités

Développement & alimentation DataLake

  • Prendre en charge les évolutions des flux de données à intégrer
  • Maintenir et faire évoluer les traitements d’alimentation du DataLake
  • Développer des traitements en Python, SQL, Shell et Spark
  • Mettre en place des extractions de données adaptées aux besoins métiers

Expertise technique & qualité

  • Rédiger les spécifications techniques et définir les requêtes de référence
  • Réaliser des revues de code et garantir les bonnes pratiques de développement
  • Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme
  • Optimiser les traitements existants

Support & accompagnement

  • Assurer le support de niveau 2 auprès des utilisateurs
  • Accompagner les équipes (y compris profils juniors / alternants)
  • Documenter les processus et les développements
  • Expliquer les sujets techniques à des interlocuteurs variés (techniques et métiers)

Structuration & amélioration continue

  • Structurer l’activité via des outils de suivi (JIRA)
  • Participer à la mise en place de processus et bonnes pratiques
  • Réaliser des activités de reverse engineering dans un environnement legacy complexe
  • Contribuer à la gouvernance des données et au respect des standards

🛠️ Compétences techniques

Stack Big Data

  • Hadoop Cloudera
  • Hive, Impala
  • Spark

Langages & scripting

  • Python
  • SQL (expert impératif)
  • Shell (scripting avancé)

Environnement technique

  • Linux
  • Git
  • Jupyter Notebook
  • JIRA

Compétences complémentaires (appréciées)

  • Power BI
  • SAS
  • Connaissance du secteur protection sociale / retraite

Compétences techniques clés

  • Développement et optimisation de traitements Big Data
  • Data engineering (alimentation, transformation, extraction)
  • Reverse engineering sur systèmes complexes
  • Automatisation des traitements
Plus de détails
Type d'emploi: À temps plein
Lieu: Lyon , Lyon , France
Expérience requise: Niveau intermédiaire-supérieur
Date de publication: 23 Mar 2026
Partager cette opportunité