Senior Software Developer - Big Data and Stream Processing

triton digital Canada
Remote
Apply
AI Summary

Join our Agile team as a Senior Software Developer to contribute to the design and development of new features, improve existing ones, and develop robust data pipelines. You will work with big data technologies, especially Spark, and stream processing technologies like Kafka. You will also collaborate with the Product Owner and interact with other product teams to define solutions for the future of the organization.

Key Highlights
Contribute to the design and development of new features
Develop and maintain robust data pipelines
Collaborate with the Product Owner and other product teams
Key Responsibilities
Contribute to the design and development of new features
Develop and maintain robust data pipelines
Collaborate with the Product Owner and other product teams
Contribute to all activities of the application development life-cycle
Demonstrate openness to the ideas of others
Propose and help implement continuous improvement solutions
Technical Skills Required
Spark Kafka Kafka-Streams SQL GitHub Actions ArgoCD Grafana Docker Kubernetes Scala Kotlin Python
Benefits & Perks
Fully remote position
4 weeks of vacation + 5 paid personal days annually
Group insurance programs
Collective RRSP with matching contribution
Internet reimbursement
Nice to Have
Apache Airflow
Apache Druid
Looker

Job Description


Tu es passionné par les nouvelles technologies, et tu souhaites faire partie d’une équipe de développement logiciel en constante quête d’innovation dans un cadre chaleureux, décontracté et stimulant ?

Nous recherchons un coéquipier comme toi !

Joins-toi à une équipe Agile et ambitieuse qui a la volonté de toujours s’améliorer et de développer des applications innovantes au sein de notre plateforme qui aide les radiodiffuseurs, les podcasters et les services musicaux à maximiser leurs revenus en ligne.

Tes responsabilités :

  • Contribuer à la conception et au développement de nouvelles fonctionnalités, ainsi qu'à l'amélioration/correction des fonctionnalités existantes.
  • Développer et maintenir des pipelines de données robustes et des applications traitant quotidiennement des charges de travail de plusieurs téraoctets.
  • Collaborer avec le/la responsable produit et interagir avec les autres équipes produit pour définir des solutions pour l'avenir de l'organisation.
  • Contribuer à toutes les activités du cycle de développement applicatif (planification, conception, codage, tests unitaires et d'intégration automatisés, revue de code, documentation, déploiement, exploitation, surveillance et alertes).
  • Faire preuve d'ouverture aux idées des autres tout en communiquant avec respect.
  • Proposer et contribuer à la mise en œuvre de solutions d'amélioration continue.
  • Être un membre engagé, transparent et positif d'une équipe Agile auto-organisée et multidisciplinaire.
  • Recommander certains choix technologiques et être capable de les soutenir.
  • Identifier proactivement les faiblesses de nos technologies et processus. Proposer des solutions et les mettre en œuvre.
  • Agir en tant qu'expert stratégique au niveau de l'entreprise sur les problématiques techniques et opérationnelles complexes.
  • Remettre en question les pratiques et les normes de Triton et piloter des améliorations.
  • Devenir un moteur d’activation pour que vos collègues deviennent plus productifs.
  • Participer à une rotation d'astreinte (environ une fois tous les deux mois).


Vous êtes un bon candidat si :

  • Vous avez de l'expérience en traitement de flux et en technologies Big Data, notamment Spark.
  • Vous avez une expérience pratique des technologies de traitement de flux comme Kafka, Kafka-Streams, etc.
  • Vous êtes passionné par les défis complexes liés au traitement de données distribuées.
  • Vous savez écrire et optimiser des requêtes SQL.
  • Vous êtes capable de résoudre les problèmes de manière approfondie, d'analyser les problèmes et de communiquer clairement vos idées.
  • Vous parlez français et anglais* à un niveau professionnel.
  • Vous connaissez des outils comme GitHub Actions, ArgoCD, Grafana, Docker et Kubernetes.
  • Vous avez au moins cinq ans d'expérience professionnelle en tant que développeur logiciel, travaillant avec des langages de programmation JVM et/ou Python.
  • Vous avez une expérience pratique avec des langages de programmation comme Scala, Kotlin et/ou Python.


Vous êtes un excellent candidat si :

  • Vous avez déjà optimisé des requêtes et/ou des processus impliquant des jeux de données à l'échelle du téraoctet.
  • Vous avez de l'expérience avec Apache Airflow ou des orchestrateurs de jobs similaires.
  • Vous avez travaillé avec Apache Druid.
  • Vous avez travaillé avec Looker ou d'autres outils de BI.


Pourquoi nous joindre?

  • Du travail remote et des horaires flexibles t’assurant une flexibilité avec ta vie perso.
  • 4 semaines de vacances + 5 jours personnelles annuellement
  • Programmes d’assurance-collective dès ton premier jour, comprenant l’accès à la télémédecine et à un PAE;
  • Remboursement de frais Internet
  • REER collectif avec contribution de l’employeur, offert des ton premier jour;
  • L’utilisation de l’anglais est nécessaire pour collaborer avec des clients internationaux, pour accéder à des informations et des ressources et pour communiquer à l’échelle internationale.


Are you passionate about new technologies, and would you like to be part of a software development team constantly seeking innovation in a warm, relaxed, and stimulating environment?

We're looking for a teammate like you!

Join an Agile and ambitious team that is driven to always improve and develop innovative applications within our platform that help broadcasters, podcasters and music services maximize their online revenue.

Your responsibilities:

  • Contribute to the design and development of new features and the improvement/correction of existing features.
  • Develop and maintain robust data pipelines and applications processing terabyte-scale loads daily.
  • Collaborate with the Product Owner and interact with other product teams to define solutions for the future of the organization.
  • Contribute to all activities of the application development life-cycle (planning, design, coding, automated unit & integration testing, code review, documentation, deployment, operations, monitoring, and alerting).
  • Demonstrate openness to the ideas of others while communicating with respect.
  • Propose and help implement continuous improvement solutions.
  • Be an engaged, transparent, and positive member of a self-organizing and multidisciplinary Agile team.
  • Recommend certain technological choices and be able to support them.
  • Proactively identify weaknesses in our tech & processes. Present solutions and implement them.
  • Acts as a strategic company-level expert on complex technical and operational issues.
  • Challenges Triton's practices and standards and drives improvements.
  • Enable your colleagues to be more productive.
  • Participate in an on-call rotation. (Approx. once every two months.)


You are a good candidate if:

  • You have experience in both stream processing and big data technologies, especially Spark.
  • You have working experience with stream processing technologies like Kafka, Kafka-Streams, etc.
  • You are very interested in the complex challenges related to distributed data processing.
  • You know how to write and optimize SQL queries.
  • You have the ability to thoroughly troubleshoot issues, investigate problems, and clearly communicate your ideas.
  • You speak French & English at a professional level.
  • You know tools like GitHub Actions, ArgoCD, Grafana, Docker, and Kubernetes.
  • You have at least five years of professional experience as a software developer, working with JVM programming languages and/or Python.
  • You have working experience with programming languages like Scala, Kotlin, and/or Python.


You are an excellent candidate if:

  • You have previously optimized queries and/or processes involving terabyte scale datasets.
  • You have experience with Apache Airflow or similar jobs orchestrating technologies.
  • You worked with Apache Druid.
  • You worked with Looker or other BI tools.


Our Benefits Package Includes

  • Fully remote position
  • 4 weeks of vacation + 5 paid personal days annually
  • Group insurance programs as of your first day, including access to telemedicine and an EAP
  • Collective RRSP with matching contribution as of your first day
  • Internet reimbursement + MORE


Triton Digital est un employeur qui souscrit au principe de l'égalité des chances et s'engage à promouvoir un environnement de travail diversifié, équitable et inclusif où tous les employés sont respectés, soutenus et en mesure d'atteindre leur plein potentiel.

Triton Digital is an equal opportunity employer committed to fostering a diverse, equitable, and inclusive workplace where all employees are respected, supported, and enabled to perform at their highest potential.

Similar Jobs

Explore other opportunities that match your interests

Visa Sponsorship Relocation Remote
Job Type Contract
Experience Level Mid-Senior level

stafingo

Canada

Data Architect

Data Science
1w ago
Visa Sponsorship Relocation Remote
Job Type Contract
Experience Level Mid-Senior level

ALL JANS

Canada

Data Science Manager (Recommendation Systems)

Data Science
2w ago

Premium Job

Sign up is free! Login or Sign up to view full details.

•••••• •••••• ••••••
Job Type ••••••
Experience Level ••••••

Harnham

Canada

Subscribe our newsletter

New Things Will Always Update Regularly