Une société du Tenth Revolution Group

Recherche actuelle

4 Résultats de la recherche

For CDI & Freelance In Paris

    Manager Data BI

    France, Île-de-France, Paris

    • €70,000 to €90,000 EUR
    • Engineer Role
    • Skills: Power BI, Tableau, SQL, Snowflake, AWS, Azure Data Factory, ETL, Python, API
    • Seniority: Senior

    Description du poste

    Nous recherchons un(e) Manager Data BI pour piloter des projets stratégiques liés à l'analyse et à la gestion des données au sein de l'organisation de notre partenaire. Votre rôle consistera à encadrer une équipe dédiée et à développer des solutions Business Intelligence adaptées aux besoins métiers, tout en veillant à l'optimisation de la plateforme data de l'entreprise.

    Vos missions principales :

    Supervision des activités BI :

    * Concevoir et superviser la mise en place de tableaux de bord et de rapports analytiques à destination des métiers.
    * Garantir la fiabilité, la pertinence et la qualité des données utilisées dans les outils BI.
    * Coordination et gestion des projets :
    * Assurer l'interface entre les équipes métiers et les équipes techniques pour comprendre les besoins et y répondre avec des solutions adaptées.
    * Suivre l'avancement des projets BI, identifier les risques, et mettre en œuvre des solutions pour les atténuer.

    Management d'équipe :

    * Animer et encadrer une équipe spécialisée en Business Intelligence et en gestion de plateformes data.
    * Accompagner les collaborateurs dans leur montée en compétences et leur développement professionnel.
    * Amélioration des processus et des outils :
    * Évaluer et mettre à jour les outils BI et les pratiques en place pour répondre aux évolutions technologiques et métiers.
    * Proposer et implémenter des améliorations afin d'optimiser l'efficacité des solutions BI.

    Stack technique :

    * Outils BI : Power BI, Tableau ou équivalent.
    * Bases de données : SQL, Snowflake.
    * Plateformes Cloud : AWS (Redshift, S3, Glue, Athena).
    * Outils de gestion de projets data : Azure Data Factory, ETL.
    * Autres outils : Python, API, outils de monitoring et reporting avancés.

    Profil recherché :

    * Expérience : Expérience confirmée (7 ans ou +) dans la gestion de projets BI et dans le management d'équipe.
    * Compétences techniques : Maîtrise des outils BI (Power BI, Tableau) et des plateformes data modernes (Snowflake, AWS, Azure).
    * Aptitudes personnelles : Leadership, sens de l'organisation, esprit analytique, et excellentes capacités de communication.

    Candidatures confidentielles

    Data Engineer GCP & AWS

    France, Île-de-France, Paris

    • €65,000 to €66,000 EUR
    • Associate Role
    • Seniority: Senior

    Description du poste

    Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance.

    Description du Poste :

    En tant que Data Engineer Senior spécialisé en GCP & AWS, vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud.

    Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact.

    Responsabilités :

    * 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données.
    * 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data.
    * ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis.



    * 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage.
    * 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA.
    * 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données.

    Environnement Technique :

    * Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda)
    * Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker
    * Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis
    * Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données

    Profil Recherché :

    * Formation : Diplôme en informatique, ingénierie ou domaine connexe.
    * Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS.
    * Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée.
    * Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément.
    * Langues : Maîtrise du français et de l'anglais (écrit et oral).

    Pourquoi Rejoindre ?

    Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data.

    Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.

    Data Engineer Snowflake

    France, Île-de-France, Paris

    • €60,000 to €70,000 EUR
    • Engineer Role
    • Skills: Data Engineering
    • Seniority: Mid-level

    Description du poste

    Rejoignez une équipe dédiée à l'intelligence décisionnelle et à la valorisation des données. Votre rôle consistera à développer, optimiser et maintenir un Data Warehouse performant, au service des besoins métiers de l'entreprise. Vous serez également amené(e) à contribuer à des projets stratégiques, allant de l'intégration de nouvelles solutions technologiques à l'amélioration continue des systèmes en place.

    Vos responsabilités :

    *

    Gestion des flux de données existants :
    Garantir la continuité et la fiabilité des traitements de données actuels, en utilisant des technologies telles que SSIS, SnowSQL et Python.
    *

    Migration technologique :
    Accompagner et finaliser le passage des chaînes de traitement actuelles sous SQL Server vers une architecture modernisée basée sur Snowflake.
    *

    Interlocuteur métier :
    Collaborer étroitement avec les équipes pour comprendre leurs besoins, proposer des solutions sur mesure et les accompagner dans leur mise en œuvre.
    *

    Conception et développement :
    Élaborer et mettre en place de nouveaux processus pour enrichir le Data Lake, en s'appuyant sur des méthodes variées (Batch, API).
    *

    Modélisation et organisation des données :
    Structurer les données en tables et vues selon les besoins fonctionnels et stratégiques de l'entreprise.
    *

    Validation des données :
    Participer aux phases de recette en coopération avec les équipes métiers pour garantir la conformité et la qualité des informations.
    *

    Projets avancés :
    Développer des solutions complexes, comme la création d'un référentiel unique ou l'implémentation d'algorithmes avancés pour des usages spécifiques.

    Compétences requises :

    * Approche autonome et rigoureuse : Vous savez gérer vos projets de manière indépendante et méthodique.
    * Expertise SQL : Maîtrise des requêtes avancées et optimisation des performances.
    * Outils d'intégration : Expérience avec des plateformes ETL comme SSIS, Talend ou autres solutions similaires, durant 5 années minimum
    * Compétences en programmation : Bonne maîtrise de Python ou d'autres langages (Java, C++).
    * Connaissances en architecture data : Compréhension des principes de modélisation et d'entreposage des données.
    * Esprit analytique : Capacité à analyser et garantir la qualité des données.
    * Communication efficace : Savoir partager vos idées et coordonner vos actions avec des équipes variées.

    Environnement technique :
    Vous évoluerez dans un contexte technologique riche, incluant GitLab pour la gestion des versions, Snowflake comme Data Lake, SQL Server et Python pour les développements.

    Candidatures confidentielles

    Chef de projet Data (F/H)

    France, Île-de-France, Paris

    • €60,000 to €70,000 EUR
    • Engineer Role
    • Skills: Matillion ELT, Qlik Replicate, Attunity Replicate, SAP, Snowflake
    • Seniority: Mid-level

    Description du poste

    Vous êtes passionné(e) par la gestion et l'exploitation des données ? Vous avez une expertise reconnue dans les outils d'intégration et de traitement de la donnée ? Rejoignez une entreprise dynamique spécialisée dans la création de produits haut de gamme et contribuez à transformer la data en un levier stratégique pour la performance.

    Vos missions principales :

    1. Collecte et analyse des besoins métiers

    * Recueillir et analyser les besoins des différentes équipes métiers.
    * Identifier et formaliser les besoins spécifiques pour orienter les choix technologiques.
    * Participer à la sélection des solutions adaptées.

    2. Développement et mise en œuvre des intégrations

    * Développer et maintenir les flux d'intégration via des outils tels que Matillion ELT ou Qlik Replicate.
    * Assurer la mise en place et l'optimisation des tâches d'intégration avec des outils comme Attunity Replicate.
    * Gérer et suivre les charges liées aux projets de data intégration.

    3. Pilotage et coordination

    * Assister les équipes métiers dans la phase de recette et de mise en production.
    * Suivre l'avancée des projets en collaboration avec les équipes techniques et les prestataires.
    * Proposer et implémenter des plans d'amélioration continue pour renforcer l'efficacité des processus.

    4. Expertise technologique et montée en compétence

    * Exploiter des outils technologiques tels que Snowflake, SAP, ou PowerDesigner pour répondre aux besoins métiers.
    * Participer à la montée en compétences méthodologiques et techniques des équipes internes.

    Profil recherché :

    * Expérience : 5 ans minimum dans un rôle similaire (responsable ou expert en data intégration).
    * Compétences techniques :
    * Maîtrise des outils d'intégration comme Matillion ELT, Qlik Replicate, et Attunity Replicate.
    * Connaissances approfondies des environnements SAP, Snowflake
    * Qualités personnelles : Organisation, autonomie, esprit d'analyse et capacité à travailler en équipe.

    Candidatures confidentielles