Pause
Lecture
Moteur de recherche d'offres d'emploi LCL

Data Engineer Big Data Confirmé H/F


Détail de l'offre

Informations générales

Entité

Filiale du Groupe Crédit Agricole depuis 2003, LCL est une banque nationale avec plus de 1600 implantations, qui accompagne 6 millions de clients particuliers, professionnels ou privés. Elle est la banque d'une entreprise sur 3.

LCL poursuit son ambition de devenir la banque assurance de référence en ville en étant n°1 de la satisfaction client.

En plaçant l'Humain au cœur de ses transformations, LCL agit chaque jour pour ses collaborateurs comme pour la société.

Pour cela, LCL s'inscrit avec une promesse forte et engageante : « L'Humain a de l'avenir et vous en avez chez LCL »
  

Référence

2021-54001  

Date de parution

23/07/2021

Description du poste

Type de métier

Types de métiers Crédit Agricole S.A. - Systèmes d'information / Maîtrise d'Ouvrage

Intitulé du poste

Data Engineer Big Data Confirmé H/F

Type de contrat

CDI

Poste avec management

Non

Cadre / Non Cadre

Cadre

Missions

Appartenant à la Direction Data Clients Finance et Risques, le service DAP Data Analytics & Pilotage de la Banque a la particularité d’être en interaction avec la totalité des Directions Métiers de LCL quant aux solutions et architecture à mettre en place en terme de Plate-forme Data internes et externes (Big Data, Intelligence Artificielle, Entrepôt de Données  ou Environnement Analytique sous SAS, qu’externe avec une DMP Data Management Platform), de solutions Analytics (Datavisualisation, Tableaux de Bord et Reporting de Pilotage de la Banque et particulièrement du pilotage du réseau commercial). DAP est également fortement impliqué sur la mise en place de l’architecture DataCentric du SI de LCL en relation avec les travaux Groupe CA.

Vous rejoindrez le service BigData & IA au sein du département Data Analytics et Pilotage de la direction SNI. Ce service a pour mission et responsabilité de mener à bien les projets BigData & IA afin de répondre aux besoins Métiers de LCL (industrialisation d’algorithme de machine learning, traitement de données en temps réel, exposition de données sous différentes formes, traitement de l’image…) , mais également aux besoins IT pour la mise en œuvre de son évolution d’architecture, de ses socles technologiques, d’intégration des nouvelles méthodes d’intégration continue (DevOps pour la Data), Nouveau socle BigData, Architecture Streaming, IA Engineering, Search, DataLayer... 

En tant qu’Ingénieur d’études et développement :

  • vous contribuerez à la construction des solutions BigData de LCL, en étroite collaboration avec les Architectes et les Business Analyst ;
  • vous serez au cœur de l’implémentation des nouvelles technologies au sein de LCL et plus largement du Groupe Crédit Agricole ;
  • vous aurez en charge le développement des solutions de collecte des données, batch et temps réel (Spark), de leur stockage et traitement au sein du cluster Hadoop (Cloudera), et de leur mise à disposition des DataScientists ;
  • vous mettrez en place l’architecture applicative des technologies BigData de LCL : Distribution Cloudera 6, DataIku, Kafka, Hbase, Impala, Kudu...

Vous rejoindrez une équipe pluridisciplinaire applicative et technique pour la renforcer sur le plan du développement. 

Au-delà de l’engagement sur les études et projets, vous serez force de proposition sur les choix BigData ; outils, méthodes projet, méthodes de développement, gouvernance. 

De plus, vous devrez constituer avec CA-GIP (Direction Infrastructure et Production du groupe Crédit Agricole), l’organisation et le fonctionnement en phase de Build et RUN des fonctions d’administration et de gouvernance de la plate-forme BigData.

Vous participerez aux échanges Groupe Crédit Agricole BigData. 

Vous contribuerez aux réflexions d’architecture techniques et applicatives Data.

Tous nos postes sont ouverts aux personnes en situation de handicap.

Localisation du poste

Zone géographique

Europe, France, Ile-de-France, 94 - Val-De-Marne

Ville

10 place Oscar Niemeyer 94811 VILLEJUIF Cedex

Critères candidat

Niveau d'études minimum

Bac + 5 / M2 et plus

Formation / Spécialisation

Master ou diplôme d'ingénieur en spécialité système d'information décisionnel et/ou Big Data

Niveau d'expérience minimum

3 - 5 ans

Expérience

Expérience de développement de projets BigData

Compétences recherchées

o Capacité d'écoute et de synthèse
o Rigueur et capacité de synthèse rédactionnelle
o Capacité à travailler en équipe pluridisciplinaire et agile
o Pro Activité et Initiatives pour la construction et la valorisation des solutions BigData

o Conception et Développement de Projets (utilisation d'outils collaboratifs : GIT, Jira).
o Maîtriser l'écosystéme Data :
 BigData : Hadoop Cloudera
 NoSQL : Hbase, Neo4J
 Streaming : Kafka
 Search : ElasticSearch, SolR
 DevOps : GitLab, Jenkins, Nexus

Outils informatiques

- Connaissance des solutions BigData : Hadoop Cloudera, HDFS, Hive, Impala, Flume, Sqoop, Hbase, Kudu, Oozie
- Langage de développement : Java, Python, Scala, SQL
- Connaissance Bases de données SQL et NoSQL