Les offres de “Groupe BPCE”

Expire bientôt Groupe BPCE

Data Engineer

  • CDI
  • Paris 1er Arrondissement (Paris)
  • Développement informatique

Description de l'offre



Description de l'entreprise
Dalenys est une solution de paiement pensée pour le commerce unifié, au service de l’expérience et de la fidélisation client. Dalenys a développé une plateforme capable de connecter l’ensemble de l’écosystème d’un commerçant : canaux de vente, réseaux de distribution, données et partenaires technologiques.

Nos clients bénéficient d’une expertise à 360° du paiement, ainsi que d’un accompagnement de A à Z par une équipe de Customer Success Managers dédiée à leur performance.

Dalenys est une filiale de Natixis Payments, l’acteur spécialisé dans les paiements du Groupe BPCE, 2e groupe bancaire en France et 1er émetteur de cartes Visa en Europe continentale.

Poste et missions
Le Tech Lab de Dalenys se renforce! Nous recherchons un Data Engineer pour renforcer nos équipes dans la construction de notre nouvelle plateforme basée sur une architecture micro service. Celle-ci remplacera à terme intégralement notre système existant.

Vous intégrez une Squad Agile, axée sur le développement d’outils et d’architectures adéquats à l’analyse de la donnée par les équipes Métiers, Supports et de Data Science. Notre Tech Lab a entrepris depuis un an une évolution vers l’agilité à l’échelle (Safe) et depuis quelques mois une transformation technique vers une nouvelle une plateforme micro service orienté API/SaaS.

Le secteur d’activité de la monétique implique que vous évoluerez dans un contexte fortement challengeant d’un point de vu sécurité (certification PCI-DSS) mais également de haute disponibilité :

• Participer à la migration du Data Warehouse existant dans le Cloud (passage à Big Query)
• Ajout de nouvelles sources de données (évènementielles, MongoDB…)
• Réaliser la mise en œuvre des traitements des données (data pipelines) des différents projets
• Proposer des architectures data adaptées aux besoins de différents projets
• Maintien de l’infrastructure existante
• Assurer le niveau de performance du traitement des données en fonction des besoins et leur intégrité
• Capitaliser sur les chaines de traitement et apporter une vision « générique », transposable et scalable
• Documenter les chaines de traitement
• Mise à disposition des données à des fins de Machine Learning
•Exposer les données sous forme d’interfaces pour l’outil d’analyse (Tableau)

STACK TECHNIQUE
• BI : Pentaho ETL, Tableau
• Backend : Java (Spring Boot)
• Frontend : ReactJS (material.ui), HTML/CSS
• Infrastructure : Google Cloud Platform
• Docker & orchestration : Kubernetes
• Code and CI/CD : gitlab & gitlab-CI
• Database : Big Query, MongoDB, MySQL, Vertica
• Message-broking : RabbitMQ

Profil recherché

Profil et compétences requises
Issu(e) d’une formation Bac+5, vous avez acquis une expérience dans le traitement de la donnée et l’utilisation d’ETL comme Talend ou Pentaho.

Vous avez une très bonne maîtrise de MySQL et Big Query.

Vous êtes reconnu(e) pour votre rigueur, votre autonomie et vos compétences techniques.

Faire de chaque avenir une réussite.
  • Annuaire emplois
  • Annuaire entreprises
  • Événements