L'usine d'IBM à Bromont est une entreprise de premier plan qui mise grandement sur les compétences de ses employés. Nous recherchons des candidats qui aiment relever les défis tout en favorisant leur propre épanouissement et par le fait même, celui d'IBM.
L'usine d'IBM à Bromont est une entreprise de fabrication de haute technologie. Au cours des derniers mois, elle a produit les processeurs qui entrent dans la fabrication de la plus haute gamme des serveurs IBM, soit les systèmes P et Z, en plus de fabriquer différents modules utilisés dans le cadre des télécommunications à travers le monde. Voici une vidéo qui montre bien l’ambiance et la culture d’entreprise qui prévalent chez nous :
IBM offre :
- Environnement de travail sécuritaire, propre et climatisé.
- Rémunération globale compétitive.
- Gamme complète d'avantages sociaux.
- Horaire flexible
- Trois semaines de vacances dès la première année.
- Programme vous d'aide aux employés (PAE).
- Régime de retraite à cotisation déterminée proportionnelle.
- Accès à des services de professionnels en santé et à une salle d’entrainement directement sur le lieu de travail.
- Activités sociales organisées par l'entreprise.
- Accès sans frais à un Spa de la région.
- Centre récréatif privé accessible à tous les employés.
- Rabais corporatif.
- Un encadrement structuré et un milieu de travail stimulant où vous pourrez développer vos compétences.
Vous devrez :
- Concevoir et maintenir une architecture "Data Fabric" basée sur IBM Cloud Pak for Data (CP4D), Watsonx.data, Watsonx.governance, DB2 Warehouse, et Cloud Object Storage (COS)
- Développer des "pipelines ETL/ELT" robustes avec IBM DataStage, StreamSets, et Apache Spark, pour le traitement de données à grande échelle.
- Implémenter des solutions de streaming et réplication de données avec IBM Event Streams (Kafka).
- Structurer les données selon l’architecture medallion et assurer leur gouvernance via IBM Knowledge Catalog.
- Collaborer avec les "data stewards" pour garantir la conformité réglementaire et la qualité des données.
- Participer aux pratiques DevOps (CI/CD, SRE) et à l’orchestration de conteneurs avec Kubernetes, Terraform, Ansible, dans des environnements IBM Cloud, Azure, ou AWS.
- Travailler en mode Agile/Kanban, en étroite collaboration avec les équipes de développement, d’analytique et d’infrastructure.
***Important*** Ce poste implique l'examen, la possession ou le transfert de marchandises et de technologies contrôlées, telles que définies dans le cadre du programme canadien des marchandises contrôlées et des données/technologies ITAR.
Pour pouvoir occuper ce poste, vous devez être citoyen canadien ou résident permanent du Canada. Les citoyens canadiens et les résidents permanents doivent faire l'objet d'une évaluation de sécurité dans le cadre du programme canadien des marchandises contrôlées.
Si vous possédez une double ou une troisième nationalité, vous devez non seulement être citoyen canadien ou résident permanent canadien, mais aussi ne pas appartenir à l'un des pays suivants pour pouvoir occuper ce poste : Afghanistan, Biélorussie, Cambodge, République centrafricaine, Chine (RPC) (y compris Hong Kong), Cuba, République démocratique du Congo, Érythrée, Éthiopie, Haïti, Iran, Iraq, Liban, Libye, Myanmar (Birmanie), Nicaragua, Corée du Nord, Russie (y compris la Crimée occupée, Donetsk et Louhansk), Somalie, Soudan, Soudan du Sud, Syrie, Venezuela, Zimbabwe. Tous les candidats devront également se soumettre à une évaluation de sécurité supplémentaire effectuée par un responsable du programme des marchandises contrôlées désigné par IBM, comme condition d'embauche.
- Minimum 5 ans d’expérience en ingénierie de données ou développement "backend" dans des environnements cloud et big data.
- Maîtrise des outils et technologies IBM: CP4D, Watsonx, DataStage, Event Streams, DB2, COS, etc.
- Solide expérience avec Spark, Kafka, Python, Scala, Snowflake, MongoDB, SQL, Docker, Kubernetes, Terraform, Git.
- Connaissance approfondie des principes de Data Governance, Data Quality et DataOps.
- Formation en informatique, génie logiciel ou domaine connexe.
- Expérience en développement backend dans des environnements cloud (IBM, Azure, AWS) et big data.
- Certifications IBM pertinentes (CP4D, Watsonx, Data Governance, etc.).
- Connaissance de l’architecture Lakehouse et des modèles medallion.
- Maîtrise des outils d’orchestration et d’automatisation: Kubernetes, Terraform, Ansible.
- Expérience avec des outils de monitoring et de performance: Grafana, Prometheus, Splunk.
- Capacité à travailler en mode Agile/Scrum/Kanban.