Nom de l'employeur
Date limite
31 octobre 2019

Le rôle d’ingénieur des données est axé sur les activités qui appuient l’intégration, la conception et la modélisation, le stockage et l’organisation des données, à mesure qu’elles sont transformées en information selon les processus opérationnels et consommées par l’analyse et la production de rapports éclairés.

À ce titre, ce rôle consiste à constituer des actifs de données industrialisés et à optimiser les pipelines de données pour des solutions d’analyse où les données seront extraites, transformées et chargées à partir des systèmes sources vers plusieurs solutions, notamment : sans toutefois s’y limiter, les entrepôts de données, les marchés de données, les cubes multidimensionnels ou tabulaires et les ensembles de données analytiques

Cette personne doit avoir une solide expérience de la création de grands ensembles de données complexes, être capable d’articuler les meilleures pratiques en matière de qualité et de nettoyage des données et d’incorporer ces pratiques dans les solutions proposées.

Compétences en leadership et en relations interpersonnelles

  • Capacité à travailler directement avec le client pour comprendre ses exigences et y répondre
  • Excellentes capacités de communication verbale et écrite : doit communiquer efficacement avec des équipes techniques et non techniques.
  • Participer à des équipes travaillant dans un processus Agile / Scrum ou Waterfall et s’assurer que les récits / tâches sont bien définis et disposent de toutes les informations et outils pour réussir
  • Capacité à travailler de manière indépendante sur des tâches et à livrer avec un niveau de qualité élevé
  • Capacité à travailler en équipe et à être ouvert aux commentaires
  • Capacité d’apprendre rapidement et de s’adapter à un environnement en évolution rapide
  • Traitement, conception et modélisation des données, déploiement du modèle, visualisation et rapport et interprétation des résultats.
  • Expérience dans la façon de traiter et de manipuler le Big Data

Compétences techniques

  • Au moins 2 années d’expérience avec Python (idéalement sur PySpark, etc.)
  • Au moins 2 années d’expérience SQL, y compris la capacité d’écrire, d’optimiser et d’interpréter des requêtes SQL ; expérience spécifique de l’outil dans Hadoop, Microsoft SQL Server, Oracle / PostGres
  • Expérience dans la création de grands ensembles complexes de données volumineuses et de mécanismes de livraison pour prendre en charge des analyses et analyses avancées
  • Connaissance des outils pour effectuer la qualité des données, le nettoyage des données, la gestion des données et les normes de données

Bon d’avoir

  • Expérience de l’agrégation et de la manipulation de données à l’aide de grands formats de données, tels que Hadoop, Spark, Kafka, etc.
  • Expérience de travail avec SAS ou R est un atout.
  • Familier avec les outils de profilage et de discussion de données comme Alteryx, Trifacta, Paxata ou Talend
  • Expérience avec Tableau et conception et développement de tableaux de bord à l’aide de Tableau Desktop pour divers indicateurs et métriques organisationnels utilisant les meilleures pratiques et les normes du secteur.

Expérience

  • 3-5 ans d’expérience dans la traduction des besoins de l’entreprise en besoins de données et dans la conception de solutions basées sur les données prenant en charge l’analyse et la compréhension

Nom de l'employeur

IBM Centre d'innovation client

Lieu de l'emploi

Montréal

Secteur

Intelligence artificielle

Années d'expérience

2 à 4 ans

Catégorie d'emploi

Programmation

Nombre de postes disponibles

1

Type d’emploi

Temps plein

Langues

Français, anglais

Date limite

Jusqu'au 31 octobre 2019