DataOps Engineer
Cet emploi n'est plus disponible
Veuillez essayer d'effectuer une nouvelle rechercheou bien parcourir nos annonces.
Ou bien saisir le formulaire ci-dessous pour recevoir des alertes d'offres d'emploi.
Localisation | Paris |
Secteur géographique | Ile-de-France, France |
Poste/Technologies | Other |
Salaire | 65-70K€ |
Monnaie | EUR |
Date de commencement | Dès que possible |
Consultant(e) en charge du poste à pourvoir | Aston Robinson |
Référence d'emploi | AR.D.12 |
- Description de poste
- A ce stade de ta carrière, aimerais-tu avoir la liberté de mettre en place des solutions Data que tu as conçues avec une indépendance totale ?
Si le CTO et la Direction comptait sur toi pour apporter ton expertise en Data et proposer des solutions innovantes autour de Kafka, BigQuery et Druid, est-ce que ça te motiverait ?
Je te demande cela car une AdTech de dimension internationale basée à Paris recherche un(e) Senior Data Engineer qui serait responsable de tous leurs sujets Data.
Elle traite des gros volumes de données (300k requêtes d’emplacement publicitaire par seconde passent par leur plateforme) et la gestion de la Data est donc au cœur de leur activité.
Leurs applications API et Data sont majoritairement développées en Scala avec des frameworks tels que Akka, Kafka-Stream, Spark.
Leurs services sont déployés sur AWS et GCP via Terraform, Ansible et des pipelines CI/CD côté DevOps. Tu pourrais industrialiser la partie Data si cela répond aux enjeux métier...
Dans tous les cas, ils ont besoin d’une personne comme toi qui a de l’expérience dans ce domaine (streaming, batch processing, consommation/production d’APIs) pour mettre en place et faire évoluer une infrastructure Data fiable, résiliente et scalable.
Etant le seul sachant Data, tu serais le/la référent(e) pour tous les sujets Data (RGPD, Build de solutions, support technique, maintenance de l’infra Big Data).
Si ce challenge t'intéresse, tu as au moins 4 ans d'éxpérience post-études, et tu penses que tu as les compétences nécessaires (maîtrise de SQL, Scala, des outils comme Kafka et Spark pour le streaming, batch) pour être complétement autonôme sur les missions citées alors contacte-nous !