Senior App & Frontend Developer AS233

Description

À propos de Smart Working

Chez Smart Working, nous sommes convaincus que votre travail doit non seulement être valorisant sur le papier, mais aussi vous épanouir au quotidien. Ce n’est pas une simple opportunité de télétravail, c’est la quête d’un lieu où vous vous sentez vraiment à votre place, où que vous soyez. Dès le premier jour, vous intégrez une communauté authentique qui place votre développement et votre bien-être au cœur de ses priorités.

Notre mission est claire : abolir les barrières géographiques pour connecter des talents qualifiés à des équipes et produits d’exception à l’échelle mondiale, dans le cadre de postes à temps plein et durables. Nous vous aidons à trouver un travail porteur de sens, au sein d’équipes qui investissent dans votre réussite et vous donnent les moyens de grandir tant sur le plan personnel que professionnel.

Rejoignez l’un des employeurs les mieux notés sur Glassdoor et découvrez ce que signifie s’épanouir dans un environnement véritablement remote-first.

Le poste

Ce rôle stratégique s’inscrit dans la durée, loin d’un simple sprint. Vous serez intégré à une équipe d’ingénierie et d’analytique collaborative, intervenant sur l’ensemble du cycle de vie des données : ingestion, transformation, modélisation et restitution via Looker. Vous collaborerez étroitement avec les équipes commerciales, produit et marketing pour garantir des données fiables, évolutives et pertinentes.

Vous bénéficierez d’une réelle autonomie. Ce poste s’adresse à une personne souhaitant définir des standards, améliorer l’architecture et évoluer au sein d’une marque qui prend ses données très au sérieux.

Vos missions

  • Concevoir, développer et maintenir des pipelines ETL/ELT robustes pour transférer les données vers Google BigQuery, en assurant fiabilité, scalabilité et observabilité à chaque étape.
  • Élaborer et appliquer des modèles de données et des standards de schéma en SQL, en privilégiant la clarté, la réutilisation et la performance selon les principes de modélisation dimensionnelle.
  • Gérer l’environnement Google BigQuery : optimisation des requêtes, maîtrise des coûts, gouvernance des données et montée en charge de la plateforme.
  • Créer et maintenir des explorations Looker, des modèles LookML et des tableaux de bord traduisant des données complexes en informations claires et exploitables pour des non-techniciens.
  • Intervenir sur l’ensemble de la stack Google Cloud Platform (Cloud Storage, Dataflow, Pub/Sub, Cloud Functions, Composer) pour concevoir des solutions data complètes.
  • Collaborer avec les équipes analytics, engineering et commerciales pour comprendre les besoins et transformer les problématiques métier en solutions techniques évolutives.
  • Promouvoir la qualité des données et les frameworks de tests, en mettant en place des systèmes de monitoring et d’alerte pour détecter et résoudre rapidement les incidents.
  • Contribuer à la documentation, aux standards de code et aux décisions architecturales pour permettre à l’équipe d’avancer rapidement et sereinement.
  • Accompagner les membres juniors de l’équipe data et instaurer un haut niveau d’exigence technique au sein de la fonction data.
  • Se tenir informé des évolutions du modern data stack et proposer proactivement des améliorations d’outils ou de processus.

Profil recherché

  • Plus de 5 ans d’expérience en SQL et modélisation de données, avec une maîtrise des modèles dimensionnels, schémas en étoile et optimisation des performances.
  • Au moins 3 ans d’expérience en production avec Google BigQuery.
  • 3 ans minimum d’utilisation pratique de Google Cloud Platform (Cloud Storage, Dataflow, Pub/Sub, Cloud Functions, Composer).
  • 3 ans d’expérience dans la conception et la maintenance de pipelines ETL/ELT à grande échelle.
  • Au moins 1 an d’expérience avec Looker et LookML pour créer des dashboards et produits data orientés business.
  • Expérience avérée dans la gestion complète d’un projet data, de la définition à la livraison.
  • Capacité à communiquer clairement avec des interlocuteurs non techniques sur les limites des données, les délais et les compromis.
  • Aisance dans la prise de décisions pragmatiques d’architecture dans un environnement cloud natif et moderne.

Atouts supplémentaires

  • Expérience avec dbt (Data Build Tool) pour la gestion des transformations et les tests.
  • Connaissance des outils d’orchestration comme Apache Airflow ou Cloud Composer.
  • Compétences en python pour le scripting de pipelines, la validation des données ou l’automatisation.
  • Expérience dans le retail, l’e-commerce ou la mode, avec une bonne compréhension des flux de données commerciaux et digitaux.
  • Exposition aux pipelines de données en temps réel ou streaming via Pub/Sub ou Dataflow.
  • Pratique de Terraform ou des méthodes Infrastructure-as-Code dans un contexte GCP.
  • Familiarité avec les cadres de gouvernance des données, catalogage et traçabilité.

Avantages

  • Horaires fixes : 12h00 - 21h30 IST (été) | 13h00 - 22h30 IST (hiver)
  • Pas de travail le week-end : un véritable équilibre vie pro/vie perso
  • Avantages dès le premier jour : ordinateur portable et assurance santé complète
  • Un accompagnement qui compte : mentorat, communauté et espaces d’échange d’idées
  • Un sentiment d’appartenance réel : une carrière durable où vos contributions sont reconnues

Chez Smart Working, vous ne serez jamais un simple télétravailleur de plus.

Devenez un Smart Worker : valorisé, autonome, et intégré à une culture qui célèbre l’intégrité, l’excellence et l’ambition.

Si ce cadre vous parle, nous serions ravis de découvrir votre parcours.

    5 autres jobs qui pourrait t'intéresser:

    Meilleurs outils télétravail

    Obtiens 10x plus d'entretiens d'embauche grâce à l'automatisation des candidatures avec l'IA

    En fonction de tes critères de recherche, postule automatiquement jusqu'à 1 500 offres d'emploi chaque mois