Senior Data Engineer – Data Broker

L'entreprise

Crée en 2014, cette startup est un data broker et son activité consiste à collecter, à normaliser et à vendre des données de marché sur les cryptomonnaies. Elle a connu un véritable “boom” en 2017 avec la montée en flèche des cryptomonnaies et le soudain intérêt des investisseurs institutionnels pour ce marché.

Aujourd’hui ils ont accumulé plus de 8 ans de données sur le marché et couvrent plus de 40.000 paires d’actifs sur une centaine de plateformes de trading, ce qui fait d’eux la base de données la plus complète et la plus fiable de l’industrie.

Forte de sa dernière levée de fonds de plus de 20 millions ils recherchent aujourd’hui plusieurs personnes dont un Senior Data Engineer. C'est une opportunité de prendre une part active au développement d'un projet ambitieux dans une atmosphère stimulante et avec des défis motivants.

Vous rejoindrez une équipe d'ingénierie au rythme rapide composée d’une dizaine de personnes ayant une expérience significative de travail avec des téraoctets de données. La startup pense que tout le monde a quelque chose à apporter et met le travail d'équipe au coeur de son organisation. Vous serez en mesure de travailler de manière autonome en tant que membre de l'équipe.

Poste / Missions

Quelques exemples de missions :

  • Résoudre les problèmes de haute disponibilité : réplication de données entre régions, reprise après sinistre, etc.
  • Résoudre les problèmes de "big data" : plus de 200 millions de messages par jour, 160 milliards de points de données depuis 2010 (avec un taux de croissance actuel de 10 milliards par mois).
  • Améliorer notre flux de développement, l'intégration continue, la livraison continue et, plus généralement, les pratiques de notre équipe.
  • Développer l'observabilité de notre plateforme par la surveillance, la journalisation, les alertes et le traçage.

Ce que vous ferez :

  • Concevoir, développer et déployer des microservices backend évolutifs et observables.
  • Réfléchir à nos capacités de stockage, d'interrogation et d'agrégation, ainsi qu'aux technologies nécessaires pour atteindre nos objectifs.
  • Travailler main dans la main avec l'équipe commerciale pour développer de nouvelles fonctionnalités, résoudre les problèmes et étendre la plateforme.

La stack:

  • VictoriaMetrics, Grafana
  • AlertManager, Karma, PagerDuty
  • Vector, Loki
  • FoundationDB, Redis
  • Vault
  • Terraform, Ansible
  • Consul
  • Kafka
  • HAProxy, Traefik
  • Service deployment: Terraform, Nomad (plugged in Consul and Vault), Kubernetes (to a lesser extent, used for non production critical workloads)
  • ClickHouse (main datastore), PostgreSQL (ACID workloads)
  • Protocols: gRPC, HTTP (phasing out in favor of gRPC), WebSocket (phasing out in favor of gRPC)
  • Platforms (packaged in containers): Golang, NodeJS (phasing out in favor of Golang), Ruby (phasing out in favor of Golang)

Profil recherché

  • Expérience significative en tant qu'ingénieur logiciel/ Data /DevOps
  • Connaissance des pipelines d'ingestion de données et de l'interrogation de données massives.
  • Vous avez travaillé avec, sans ordre particulier : l'architecture microservices, l'infrastructure en tant que code, les services autogérés (par exemple, le déploiement et la maintenance de nos propres bases de données), les services distribués, le développement côté serveur, etc.
  • Vous remarquerez que nous n'avons pas d'exigences "strictes" en termes de plates-formes ou de technologies de développement : c'est parce que nous sommes principalement intéressés par des personnes capables de s'adapter à un paysage d'exigences techniques en constante évolution, qui apprennent rapidement et n'ont pas peur de repousser constamment nos limites techniques.
  • Il n'est pas rare que nous évaluions de nouvelles technologies pour une fonctionnalité spécifique, ou que nous modifiions considérablement notre infrastructure pour mieux répondre à nos besoins.
  • Les compétences les plus importantes pour nous tournent autour de deux choses :
  • Ce que nous aimons appeler les connaissances "de base" : qu'est-ce qu'un processus logiciel, comment interagit-il avec les ressources d'une machine ou du réseau, à quel type de contraintes peut-on s'attendre pour certaines charges de travail, etc.
  • la rapidité avec laquelle vous pouvez vous adapter à une technologie dont vous ignoriez l'existence il y a 10 minutes.

En bref, nous recherchons une personne capable de repérer rapidement que passer 10 jours à migrer des données vers un schéma plus efficace est la meilleure solution par rapport à la mise à l'échelle d'un cluster de base de données en quelques minutes si nous cherchons à améliorer les performances à long terme.

Compétences personnelles:

  • Honnête : recevoir et donner du feedback est très important pour vous.
  • Humble : faire de nouvelles erreurs est une partie essentielle de votre parcours.
  • Empathique : vous vous sentez responsable de tous les efforts de l'équipe plutôt que de vous concentrer sur les contributions individuelles.
  • Engagé : en tant que membre tout aussi important de l'équipe, vous voulez vous faire entendre tout en respectant le point de vue de chacun.
  • Vous parlez et écrivez couramment l'anglais
  • Vous avez le plus grand respect pour le code et l'infrastructure hérités, avec quelques plaintes respectueuses occasionnelles et parfaitement compréhensibles.

Informations

CDI
60/75K
Paris
Full Remote

Compétences

On premise Microservice Terraform Ansible Anglais courant Good communication

Les +

Création de poste
BSPCE
Cadre international
Opportunités de développement de carrière
Hardware de votre choix
Team events and staff surprises

Postuler

Sara Brissi

Pas le temps de chercher un job ?

01Quel type de contrat recherchez vous ?
02Quel est votre disponibilité ?
03Quel poste recherchez vous ?
04Combien d’années d’expérience avez-vous ?
05Dans quelle(s) ville(s) êtes-vous mobile ?
06C'est presque fini !