Expert Technique Big Data

  • Freelance
  • Paris, France
  • 45k-55k €⁄an, 400-450 €⁄j

ENGIT

engIT est une jeune société d’ingénierie, dédiée à l’innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd’hui présente à Nice, Aix, Lille, Paris et Monaco…

Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d’intérêts.

 

L’équipe engIT Paris, recherche un/une : Expert technique Big Data

Pour rejoindre, les équipes de notre client.

Description détaillée de la prestation :


MCO Big DATA
– Le maintien en conditions opérationnelle du Datalake
– Automatisation et amélioration continue en mode Agile de la gestion du Datalake
– Le support aux applications consommatrice du Datalake
– La sécurisation, les mises à jour, la gestion des vulnérabilités
– La gestion des changements en lien avec les utilisateurs du Datalake
– Le support à la gestion d’incidents
– La gestion prévisionnelle de capacité
– Test, qualification et mise en place des nouveaux composants
– La documentation et aux procédures d’exploitation

Techno :
Experts techniques Big DATA
– Expertise avancée en administration Hadoop (Cloudera Data Platform)
– Expertise en Infrastructures Nifi, Kafka
– Expertise en Infrastructures Elastic
– Scheduling : Airflow – Monitoring : Zabbix

– Automatisation : Python, Ansible & Teraform
– Socle OS : Redhat Linux Environnements
– Hadoop (Cloudera Data Platform), Nifi, Kafka – Infrastructures Elastic
– Trino / Starburst – Airflow
– Zabbix – Python, Ansible & Teraform

– Langue : Anglais indispensable pour discuter avec les équipes CSP (Inde, Etats-Unis)

Pour postuler, envoyez votre CV et votre lettre de motivation par e-mail à candidature@elzei.fr

EXPERT TECHNIQUE BIG DATA

  • Freelance
  • Paris, France
  • 10k-60k €⁄an, 100-600 €⁄j

OCSI

Cadre de la mission:

Documentation technique à jour pour la maintenance des infrastructures Big Data.
Scripts d’automatisation pour faciliter les opérations courantes.
Post-mortem sur les incidents et rapports de performance.
Mise à jour des référentiels techniques et de la documentation d’exploitation.

Missions :

• Le maintien en conditions opérationnelle du Datalake

• Automatisation et amélioration continue en mode Agile de la gestion du Datalake • Le support aux applications consommatrice du Datalake

• La sécurisation, les mises à jour, la gestion des vulnérabilités

• La gestion des changements en lien avec les utilisateurs du Datalake

• Le support à la gestion d’incidents

• La gestion prévisionnelle de capacité

• Test, qualification et mise en place des nouveaux composants

• La documentation et aux procédures d’exploitation

Expertise technique :

Hadoop (Cloudera Data Platform) : Administration avancée.
NiFi et Kafka : Gestion et administration des infrastructures.
Elastic : Gestion des infrastructures ElasticSearch.
Airflow : Gestion de la planification de tâches.
Monitoring : Utilisation d’outils tels que Zabbix.
Automatisation : Maîtrise de Python, Ansible et Terraform pour l’automatisation des processus.
Environnement système : Expertise sur Redhat Linux.

Compétences supplémentaires :
Capacité à évoluer dans un environnement anglophone et à collaborer avec des équipes à l’international.
Gestion du support, résolution d’incidents, mises à jour de sécurité, et documentation technique.

Anglais courant

Le candidat doit être à l’aise dans un environnement agile, capable de gérer des infrastructures complexes et d’automatiser des processus pour améliorer la gestion opérationnelle des données.

Anglais courant

Pour postuler, envoyez votre CV et votre lettre de motivation par e-mail à candidature@elzei.fr