DATA ENGINEER
Clichy, 92110
CDI
05/01/2026
Description
Nexpublica est un acteur historique de l’édition de logiciels pour le secteur public, parapublic, et privé. L’entreprise accompagne plus de 4 000 organismes publics et 1 200 entreprises privées.
Nous concevons des logiciels performants, fluides et sécurisés, avec une mission : mettre l’innovation technologique au service du mieux-vivre ensemble.
Tous nos postes sont ouverts aux personnes en situation de handicap
Missions
Rattaché à l'équipe d’ingénierie Data en interne, vous accompagnez un projet stratégique de transformation autour des solutions Cloud Data chez NexPublica. Ce rôle s’inscrit dans la construction d'une nouvelle plateforme Data en mode SaaS visant à moderniser et industrialiser le traitement et l’exploitation des données. Dans ce cadre, nous recherchons un(e) Data Engineer expérimenté(e) pour rejoindre l’équipe technique et contribuer à la mise en place des pipelines de données, de l’architecture analytique et des dataviz associées.
Cette plateforme servira également de base à de futures intégrations de fonctions d’IA (Vectorisation de documents et de données, RAG, modèles de forecast).
Missions principales
Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud Sécurisé S3NS utilisant les technologies Google Cloud
Mettre en œuvre des workflows d’orchestration de données avec Airflow
Construire et maintenir les modèles de transformation avec DBT
Participer à l’intégration et à la gestion des données sur des tables Iceberg via Trino
Contribuer à l’automatisation et à la fiabilisation des déploiements via des pratiques CI/CD (GitLab CI, Kubernetes)
Modélisation de Datamarts.
Mise en place de Dashboards / Dataviz avec Superset
Assurer la qualité, la gouvernance et la traçabilité des données tout au long du cycle de vie
Collaborer étroitement avec les équipes Data Science, Produit et Infrastructure pour garantir la cohérence et la performance du socle Data
Profil
Formation supérieure en informatique, data engineering ou équivalent
Expérience confirmée (3 à 5 ans minimum) en développement de pipelines et en environnement Cloud
Maîtrise des technologies Airflow, DBT, Trino et Tables Iceberg
Solides compétences en Python, Git et industrialisation CI/CD (notamment Kubernetes)
Bonne compréhension des architectures distribuées et des formats de données modernes
Esprit d’équipe, rigueur technique, curiosité et autonomie
Environnement technique
Cloud : Google Cloud Platform / S3NS
Stack Data : Airflow, DBT, Trino, Iceberg
Langages : Python, SQL
Outils DevOps : Git, CI/CD, Kubernetes
