Data Engineer GCP & AWS

Tenth Revolution Group

Mon client est une entreprise reconnue dans le domaine de la transformation et de l’analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l’intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L’entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance.

Description du Poste :

En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud.

Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l’optimisation des architectures de données sur des projets à fort impact.

Responsabilités :

• ???? Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l’ingestion, la transformation et la modélisation des données.
• ???? Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l’efficacité des architectures Big Data.
• ?? Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu’Apache Kafka, Google Pub/Sub ou Kinesis.

• ???? Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage.
• ???? Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA.
• ????? Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données.
Environnement Technique :

• Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda)
• Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker
• Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis
• Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données
Profil Recherché :

• Formation : Diplôme en informatique, ingénierie ou domaine connexe.
• Expérience : Minimum 5 ans d’expérience en Data Engineering, avec une expertise en GCP et AWS.
• Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d’orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée.
• Esprit d’Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément.
• Langues : Maîtrise du français et de l’anglais (écrit et oral).
Pourquoi Rejoindre ?

Mon client valorise l’innovation, la collaboration et l’excellence technique. Il propose un environnement dynamique, des perspectives d’évolution, et un accès aux formations et technologies de pointe dans le domaine de la data.

Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.

Pour postuler, envoyez votre CV et votre lettre de motivation par e-mail à candidature@elzei.fr

Data Engineer GCP AWS

Tenth Revolution Group

Je recrute pour une entreprise en pleine croissance avec une équipe de 45 collaborateurs répartis entre Toulouse (35 personnes) et la nouvelle agence à Paris (10 personnes). Je recherche un Data Engineer Confirmé avec un minimum de 4 ans d’expérience pour rejoindre l’équipe.

Ce que l’entreprise offre : • Choix du matériel : PC ou Mac, tu choisis ta config ! + Prime d’équipement télétravail (450€ HT sur 3 ans).
• Formation continue : Certifications 100% prises en charge avec du temps dédié à la préparation.
• Veille technologique : 12 Stack Days par an (1 journée/mois) dédiés à la veille et au partage de connaissances. Participation à des conférences tech.
• Transport : 50% des frais de transports publics pris en charge + forfait mobilités vertes.
• Vie d’entreprise : Stack Trip annuel, activités sponsorisées (escape game, kayak, rando, etc.), conférences tech (Devoxx, AWS Summit, Google Summit, etc.), afterworks réguliers.
Ce que tu feras : • Auditer les configurations cloud et proposer des améliorations.
• Concevoir des architectures data cloud natives (GCP/AWS).
• Déployer des entrepôts de données massivement scalables (BigQuery, Redshift, MongoDB…).
• Développer des pipelines de traitement de données (Spark, Dataflow…).
• Intégrer des processus de Data Science et Machine Learning.
• Accompagner les clients sur les bonnes pratiques cloud et DevOps (CI/CD, GitOps).
• Conduire les déploiements et intégrations.
Tu as un esprit d’initiative, une curiosité pour les nouvelles technologies et une passion pour la data ? Ce poste est fait pour toi !

Localisation : Paris (avec télétravail possible).

Postule dès maintenant et rejoins une équipe passionnée par la technologie !

Pour postuler, envoyez votre CV et votre lettre de motivation par e-mail à candidature@elzei.fr