
BEEZEN
Vos missions seront de :
– mettre en place, standardiser, améliorer les processus d’intégration et de déploiement continu des projets
– automatiser, standardiser, la définition des architectures de traitement et d’exposition de données dans un environnement cloud (GCP)
– sécuriser les accès aux infrastructures cloud
– gérer la solution d’orchestration des traitements de données (Airflow)
– identifier proactivement les processus à automatiser, les offres de service à développer
– standardiser la gestion du cycle de vie des modèles de machine learning, via des approches MLOps
– développer des outils de monitoring et d’alerting des solutions – veiller, proposer, qualifier, tester de nouveaux outils technologiques, dans une approche cloud first
– assister la communauté des (déploiement, configuration des applications, gestion des accès, investigation d’incident…)
– suivre et optimiser les coûts cloud d’exploitation Intégré pleinement à notre communauté agile d’ingénieurs, vous contribuerez de manière itérative aux projets, et conduirez des revues de code. En tant qu’ingénieur Data Ops, vous rapporterez au directeur du pôle de data science.
À l’issue d’au moins 5 années d’expérience professionnelle de DevOps, vous avez développé des compétences sur :
– le développement logiciel
– la création et évolution de process CI/CD et la conteneurisation de services
– l’architecture et le développement de service de traitement de données, d’indexation et leur stockage.
En outre, vous comprenez bien les enjeux, les contraintes et les difficultés des projets de science des données.
– le développement d’applications dans le cloud (GCP de préférence), la définition d’infrastructures as code
– le fonctionnement des réseaux informatiques Vous avez pris part à des projets de développement collaboratifs, et la qualité et la simplicité du code vous tiennent à cœur.
Vous avez une maîtrise courante du français, et d’un anglais technique a minima. Notre stack technique Terraform, Ansible, Python Docker, Gitlab, Kibana, Grafana GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, DataProc / Spark, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage)
À l’issue d’au moins 5 années d’expérience professionnelle de DevOps, vous avez développé des compétences sur :
– le développement logiciel
– la création et évolution de process CI/CD et la conteneurisation de services
– l’architecture et le développement de service de traitement de données, d’indexation et leur stockage.
En outre, vous comprenez bien les enjeux, les contraintes et les difficultés des projets de science des données.
– le développement d’applications dans le cloud (GCP de préférence), la définition d’infrastructures as code
– le fonctionnement des réseaux informatiques Vous avez pris part à des projets de développement collaboratifs, et la qualité et la simplicité du code vous tiennent à cœur.
Vous avez une maîtrise courante du français, et d’un anglais technique a minima. Notre stack technique Terraform, Ansible, Python Docker, Gitlab, Kibana, Grafana GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, DataProc / Spark, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage)
Pour postuler, envoyez votre CV et votre lettre de motivation par e-mail à candidature@elzei.fr



