Ein Unternehmen der Tenth Revolution Group

Ihre aktuelle Jobsuche

37 Suchergebnisse

Für Festanstellung und freiberuflich

Cloud Data Engineer (w/m/d) - in Berlin

Germany, Berlin

  • €70,000 to €90,000 EUR
  • Engineer Stelle
  • Seniority: Mid-level

Jobbeschreibung

Für den Geschäftsbereich Data & Analytics von einem unserer Kunden suchen wir in ganz Deutschland:

(Senior) Cloud Data Engineer (w/m/d)

Anforderungen:

- Abgeschlossenes Studium oder eine vergleichbare Ausbildung im relevanten Umfeld
- Mehrjährige Erfahrung mit Data Engineering: du bist verhandlungssicher in Python und SQL
- Projekterfahrung mit Cloud (AWS, GCP bevorzugt) und/oder Big Data Frameworks wie Hadoop, Spark und Kafka
- Nice-to-have: Erfahrung mit Snowflake oder Databricks oder CI/CD
- Motivation und Interesse, beim Dienstleister zu arbeiten und sich nachhaltig weiterzuentwickeln
- Verhandlungssicheres Deutsch und fließendes Englisch in Wort und Schrift

Worum es geht:

Das Unternehmen ist einer der führenden IT-Dienstleister im deutschsprachigen Raum. Mit rund 6.800 Mitarbeitenden unterstützt es Kunden aus verschiedenen Branchen bei der Digitalen Transformation.

Die Business Unit Data besteht aktuell aus über 300 Mitarbeitenden und gilt als einer der größten Anbieter für den Data & Analytics Markt in Deutschland. Als Cloud Data Engineer bist du Teil des 20-köpfigen Teams Data Platforms und arbeitest bei Projekten eng und interdisziplinär mit anderen Teams in dem Bereich D&A zusammen. Du arbeitest mit deinen Kolleg*innen an großen und langlaufenen Projekte im Enterprise-Umfeld mit Fokus auf AWS und GCP und entwickelst dich technisch und professionell weiter.

Deine Aufgaben als Cloud Data Engineer:

* Du entwirfst und implementierst perfomante und skalierbare Datenplattformen auf den Hyper Scalern AWS und/oder GCP mit Kolleg*innen zusammen: Datenquellen anbinden, Daten integrieren, Datenpipelines implentieren und einsetzen, Daten für Dashboards und KI-Use-Cases vorbereiten
* Engineering von Container basierten Analytics Plattformen und effizienten CI/CD Pipelines
* Aktives Mitwirken im Team und stetige Weiterbildung: Du bringst deine Ideen mit, tauschst dich mit Kolleg*innen fachlich aus und erarbeitest Standards für künftige Projekte

Dafür wird Dir geboten:

* 30 Tage Urlaubstage im Jahr
* Zeitliche und örtliche Flexibilität (bundesweit remote möglich + 2 - 4 Monate pro Jahr Remote-Arbeit aus dem (EU-)Ausland möglich je nach Aufgabenbereiche
* Offene Unternehmenskultur, dynamisches Arbeitsumfeld und moderner Führungsstil
* Spannende abwechslungsreiche Projekte im Cloud-Umfeld mit unterschiedlichen Industrien
* Projektzuweisung, die deiner Kapazität und deinem Interesse entspricht
* Ein großes etabiliertes Umfeld, in dem du dich technisch und professionell weiterentwickeln kannst
* Ein kollegiales Team, das von einer offenen Feedback-Kultur und Wissentransfer geprägt ist
* Unterstützung deiner persönlichen und fachlichen Weiterentwicklung mit einem breiten Angebot von Weiterbildungen und Zertifizierungen
* Patenschaft von fachlichen Kolleg*innen und solides On-Boarding Programm
* Freiraum für eigene Kreativität und Entwicklung

Hiring Process:

1st Remote-Gespräch mit dem Fachbereich - 2nd Vor-Ort-Gespräch mit dem Fachbereich - Angebot/Absage

Für denselben Geschäftsbereich suchen wir ebenfalls nach (Senior) Cloud DataOps Engineers, Data Architects und AI Consultants in ganz Deutschland. Bewerbe dich daher gerne bei uns, auch wenn du nicht alle Anforderungen erfüllen kannst.

Impressum - https://www.frankgroup.com/de/impressum/

Cloud Data Engineer (w/m/d) - in Paderborn

Germany, Nordrhein-Westfalen, Paderborn

  • €70,000 to €90,000 EUR
  • Engineer Stelle
  • Seniority: Mid-level

Jobbeschreibung

Für den Geschäftsbereich Data & Analytics von einem unserer Kunden suchen wir in ganz Deutschland:

(Senior) Cloud Data Engineer (w/m/d)

Anforderungen:

- Abgeschlossenes Studium oder eine vergleichbare Ausbildung im relevanten Umfeld
- Mehrjährige Erfahrung mit Data Engineering: du bist verhandlungssicher in Python und SQL
- Projekterfahrung mit Cloud (AWS, GCP bevorzugt) und/oder Big Data Frameworks wie Hadoop, Spark und Kafka
- Nice-to-have: Erfahrung mit Snowflake oder Databricks oder CI/CD
- Motivation und Interesse, beim Dienstleister zu arbeiten und sich nachhaltig weiterzuentwickeln
- Verhandlungssicheres Deutsch und fließendes Englisch in Wort und Schrift

Worum es geht:

Das Unternehmen ist einer der führenden IT-Dienstleister im deutschsprachigen Raum. Mit rund 6.800 Mitarbeitenden unterstützt es Kunden aus verschiedenen Branchen bei der Digitalen Transformation.

Die Business Unit Data besteht aktuell aus über 300 Mitarbeitenden und gilt als einer der größten Anbieter für den Data & Analytics Markt in Deutschland. Als Cloud Data Engineer bist du Teil des 20-köpfigen Teams Data Platforms und arbeitest bei Projekten eng und interdisziplinär mit anderen Teams in dem Bereich D&A zusammen. Du arbeitest mit deinen Kolleg*innen an großen und langlaufenen Projekte im Enterprise-Umfeld mit Fokus auf AWS und GCP und entwickelst dich technisch und professionell weiter.

Deine Aufgaben als Cloud Data Engineer:

* Du entwirfst und implementierst perfomante und skalierbare Datenplattformen auf den Hyper Scalern AWS und/oder GCP mit Kolleg*innen zusammen: Datenquellen anbinden, Daten integrieren, Datenpipelines implentieren und einsetzen, Daten für Dashboards und KI-Use-Cases vorbereiten
* Engineering von Container basierten Analytics Plattformen und effizienten CI/CD Pipelines
* Aktives Mitwirken im Team und stetige Weiterbildung: Du bringst deine Ideen mit, tauschst dich mit Kolleg*innen fachlich aus und erarbeitest Standards für künftige Projekte

Dafür wird Dir geboten:

* 30 Tage Urlaubstage im Jahr
* Zeitliche und örtliche Flexibilität (bundesweit remote möglich + 2 - 4 Monate pro Jahr Remote-Arbeit aus dem (EU-)Ausland möglich je nach Aufgabenbereiche
* Offene Unternehmenskultur, dynamisches Arbeitsumfeld und moderner Führungsstil
* Spannende abwechslungsreiche Projekte im Cloud-Umfeld mit unterschiedlichen Industrien
* Projektzuweisung, die deiner Kapazität und deinem Interesse entspricht
* Ein großes etabiliertes Umfeld, in dem du dich technisch und professionell weiterentwickeln kannst
* Ein kollegiales Team, das von einer offenen Feedback-Kultur und Wissentransfer geprägt ist
* Unterstützung deiner persönlichen und fachlichen Weiterentwicklung mit einem breiten Angebot von Weiterbildungen und Zertifizierungen
* Patenschaft von fachlichen Kolleg*innen und solides On-Boarding Programm
* Freiraum für eigene Kreativität und Entwicklung

Hiring Process:

1st Remote-Gespräch mit dem Fachbereich - 2nd Vor-Ort-Gespräch mit dem Fachbereich - Angebot/Absage

Für denselben Geschäftsbereich suchen wir ebenfalls nach (Senior) Cloud DataOps Engineers, Data Architects und AI Consultants in ganz Deutschland. Bewerbe dich daher gerne bei uns, auch wenn du nicht alle Anforderungen erfüllen kannst.

Impressum - https://www.frankgroup.com/de/impressum/

Cloud Data Engineer (w/m/d) - in Köln

Germany, Nordrhein-Westfalen, Cologne

  • €70,000 to €90,000 EUR
  • Engineer Stelle
  • Seniority: Mid-level

Jobbeschreibung

Für den Geschäftsbereich Data & Analytics von einem unserer Kunden suchen wir in ganz Deutschland:

(Senior) Cloud Data Engineer (w/m/d)

Anforderungen:

- Abgeschlossenes Studium oder eine vergleichbare Ausbildung im relevanten Umfeld
- Mehrjährige Erfahrung mit Data Engineering: du bist verhandlungssicher in Python und SQL
- Projekterfahrung mit Cloud (AWS, GCP bevorzugt) und/oder Big Data Frameworks wie Hadoop, Spark und Kafka
- Nice-to-have: Erfahrung mit Snowflake oder Databricks oder CI/CD
- Motivation und Interesse, beim Dienstleister zu arbeiten und sich nachhaltig weiterzuentwickeln
- Verhandlungssicheres Deutsch und fließendes Englisch in Wort und Schrift

Worum es geht:

Das Unternehmen ist einer der führenden IT-Dienstleister im deutschsprachigen Raum. Mit rund 6.800 Mitarbeitenden unterstützt es Kunden aus verschiedenen Branchen bei der Digitalen Transformation.

Die Business Unit Data besteht aktuell aus über 300 Mitarbeitenden und gilt als einer der größten Anbieter für den Data & Analytics Markt in Deutschland. Als Cloud Data Engineer bist du Teil des 20-köpfigen Teams Data Platforms und arbeitest bei Projekten eng und interdisziplinär mit anderen Teams in dem Bereich D&A zusammen. Du arbeitest mit deinen Kolleg*innen an großen und langlaufenen Projekte im Enterprise-Umfeld mit Fokus auf AWS und GCP und entwickelst dich technisch und professionell weiter.

Deine Aufgaben als Cloud Data Engineer:

* Du entwirfst und implementierst perfomante und skalierbare Datenplattformen auf den Hyper Scalern AWS und/oder GCP mit Kolleg*innen zusammen: Datenquellen anbinden, Daten integrieren, Datenpipelines implentieren und einsetzen, Daten für Dashboards und KI-Use-Cases vorbereiten
* Engineering von Container basierten Analytics Plattformen und effizienten CI/CD Pipelines
* Aktives Mitwirken im Team und stetige Weiterbildung: Du bringst deine Ideen mit, tauschst dich mit Kolleg*innen fachlich aus und erarbeitest Standards für künftige Projekte

Dafür wird Dir geboten:

* 30 Tage Urlaubstage im Jahr
* Zeitliche und örtliche Flexibilität (bundesweit remote möglich + 2 - 4 Monate pro Jahr Remote-Arbeit aus dem (EU-)Ausland möglich je nach Aufgabenbereiche
* Offene Unternehmenskultur, dynamisches Arbeitsumfeld und moderner Führungsstil
* Spannende abwechslungsreiche Projekte im Cloud-Umfeld mit unterschiedlichen Industrien
* Projektzuweisung, die deiner Kapazität und deinem Interesse entspricht
* Ein großes etabiliertes Umfeld, in dem du dich technisch und professionell weiterentwickeln kannst
* Ein kollegiales Team, das von einer offenen Feedback-Kultur und Wissentransfer geprägt ist
* Unterstützung deiner persönlichen und fachlichen Weiterentwicklung mit einem breiten Angebot von Weiterbildungen und Zertifizierungen
* Patenschaft von fachlichen Kolleg*innen und solides On-Boarding Programm
* Freiraum für eigene Kreativität und Entwicklung

Hiring Process:

1st Remote-Gespräch mit dem Fachbereich - 2nd Vor-Ort-Gespräch mit dem Fachbereich - Angebot/Absage

Für denselben Geschäftsbereich suchen wir ebenfalls nach (Senior) Cloud DataOps Engineers, Data Architects und AI Consultants in ganz Deutschland. Bewerbe dich daher gerne bei uns, auch wenn du nicht alle Anforderungen erfüllen kannst.

Impressum - https://www.frankgroup.com/de/impressum/

Cloud Data Engineer (w/m/d) - in Rostock

Germany, Mecklenburg-Vorpommern, Rostock

  • €70,000 to €90,000 EUR
  • Engineer Stelle
  • Seniority: Mid-level

Jobbeschreibung

Für den Geschäftsbereich Data & Analytics von einem unserer Kunden suchen wir in ganz Deutschland:

(Senior) Cloud Data Engineer (w/m/d)

Anforderungen:

- Abgeschlossenes Studium oder eine vergleichbare Ausbildung im relevanten Umfeld
- Mehrjährige Erfahrung mit Data Engineering: du bist verhandlungssicher in Python und SQL
- Projekterfahrung mit Cloud (AWS, GCP bevorzugt) und/oder Big Data Frameworks wie Hadoop, Spark und Kafka
- Nice-to-have: Erfahrung mit Snowflake oder Databricks oder CI/CD
- Motivation und Interesse, beim Dienstleister zu arbeiten und sich nachhaltig weiterzuentwickeln
- Verhandlungssicheres Deutsch und fließendes Englisch in Wort und Schrift

Worum es geht:

Das Unternehmen ist einer der führenden IT-Dienstleister im deutschsprachigen Raum. Mit rund 6.800 Mitarbeitenden unterstützt es Kunden aus verschiedenen Branchen bei der Digitalen Transformation.

Die Business Unit Data besteht aktuell aus über 300 Mitarbeitenden und gilt als einer der größten Anbieter für den Data & Analytics Markt in Deutschland. Als Cloud Data Engineer bist du Teil des 20-köpfigen Teams Data Platforms und arbeitest bei Projekten eng und interdisziplinär mit anderen Teams in dem Bereich D&A zusammen. Du arbeitest mit deinen Kolleg*innen an großen und langlaufenen Projekte im Enterprise-Umfeld mit Fokus auf AWS und GCP und entwickelst dich technisch und professionell weiter.

Deine Aufgaben als Cloud Data Engineer:

* Du entwirfst und implementierst perfomante und skalierbare Datenplattformen auf den Hyper Scalern AWS und/oder GCP mit Kolleg*innen zusammen: Datenquellen anbinden, Daten integrieren, Datenpipelines implentieren und einsetzen, Daten für Dashboards und KI-Use-Cases vorbereiten
* Engineering von Container basierten Analytics Plattformen und effizienten CI/CD Pipelines
* Aktives Mitwirken im Team und stetige Weiterbildung: Du bringst deine Ideen mit, tauschst dich mit Kolleg*innen fachlich aus und erarbeitest Standards für künftige Projekte

Dafür wird Dir geboten:

* 30 Tage Urlaubstage im Jahr
* Zeitliche und örtliche Flexibilität (bundesweit remote möglich + 2 - 4 Monate pro Jahr Remote-Arbeit aus dem (EU-)Ausland möglich je nach Aufgabenbereiche
* Offene Unternehmenskultur, dynamisches Arbeitsumfeld und moderner Führungsstil
* Spannende abwechslungsreiche Projekte im Cloud-Umfeld mit unterschiedlichen Industrien
* Projektzuweisung, die deiner Kapazität und deinem Interesse entspricht
* Ein großes etabiliertes Umfeld, in dem du dich technisch und professionell weiterentwickeln kannst
* Ein kollegiales Team, das von einer offenen Feedback-Kultur und Wissentransfer geprägt ist
* Unterstützung deiner persönlichen und fachlichen Weiterentwicklung mit einem breiten Angebot von Weiterbildungen und Zertifizierungen
* Patenschaft von fachlichen Kolleg*innen und solides On-Boarding Programm
* Freiraum für eigene Kreativität und Entwicklung

Hiring Process:

1st Remote-Gespräch mit dem Fachbereich - 2nd Vor-Ort-Gespräch mit dem Fachbereich - Angebot/Absage

Für denselben Geschäftsbereich suchen wir ebenfalls nach (Senior) Cloud DataOps Engineers, Data Architects und AI Consultants in ganz Deutschland. Bewerbe dich daher gerne bei uns, auch wenn du nicht alle Anforderungen erfüllen kannst.

Impressum - https://www.frankgroup.com/de/impressum/

Data Engineer Snowflake

France, Île-de-France, Paris

  • €60,000 to €70,000 EUR
  • Engineer Stelle
  • Fähigkeiten: Data Engineering
  • Seniority: Mid-level

Jobbeschreibung

Rejoignez une équipe dédiée à l'intelligence décisionnelle et à la valorisation des données. Votre rôle consistera à développer, optimiser et maintenir un Data Warehouse performant, au service des besoins métiers de l'entreprise. Vous serez également amené(e) à contribuer à des projets stratégiques, allant de l'intégration de nouvelles solutions technologiques à l'amélioration continue des systèmes en place.

Vos responsabilités :

*

Gestion des flux de données existants :
Garantir la continuité et la fiabilité des traitements de données actuels, en utilisant des technologies telles que SSIS, SnowSQL et Python.
*

Migration technologique :
Accompagner et finaliser le passage des chaînes de traitement actuelles sous SQL Server vers une architecture modernisée basée sur Snowflake.
*

Interlocuteur métier :
Collaborer étroitement avec les équipes pour comprendre leurs besoins, proposer des solutions sur mesure et les accompagner dans leur mise en œuvre.
*

Conception et développement :
Élaborer et mettre en place de nouveaux processus pour enrichir le Data Lake, en s'appuyant sur des méthodes variées (Batch, API).
*

Modélisation et organisation des données :
Structurer les données en tables et vues selon les besoins fonctionnels et stratégiques de l'entreprise.
*

Validation des données :
Participer aux phases de recette en coopération avec les équipes métiers pour garantir la conformité et la qualité des informations.
*

Projets avancés :
Développer des solutions complexes, comme la création d'un référentiel unique ou l'implémentation d'algorithmes avancés pour des usages spécifiques.

Compétences requises :

* Approche autonome et rigoureuse : Vous savez gérer vos projets de manière indépendante et méthodique.
* Expertise SQL : Maîtrise des requêtes avancées et optimisation des performances.
* Outils d'intégration : Expérience avec des plateformes ETL comme SSIS, Talend ou autres solutions similaires, durant 5 années minimum
* Compétences en programmation : Bonne maîtrise de Python ou d'autres langages (Java, C++).
* Connaissances en architecture data : Compréhension des principes de modélisation et d'entreposage des données.
* Esprit analytique : Capacité à analyser et garantir la qualité des données.
* Communication efficace : Savoir partager vos idées et coordonner vos actions avec des équipes variées.

Environnement technique :
Vous évoluerez dans un contexte technologique riche, incluant GitLab pour la gestion des versions, Snowflake comme Data Lake, SQL Server et Python pour les développements.

Candidatures confidentielles

SAP ABAP + WM/EWM

Spain, Madrid

  • Up to €60,000 EUR
  • Engineer Stelle
  • Fähigkeiten: SAP, SAP ABAP
  • Seniority: Senior

Jobbeschreibung

Your main responsibilities include:
* Working in an agile DevOps environment, keeping strong communication with the team
* Enable and support our internal business partners to achieve The Client business goals through providing best-in-class IT and digitalization solutions.
* Defines the solution and technical design based on business requirements
* Support the migration from R3 to S4/Hana
* Contributes to project planning, cost estimations
* Preparing and conducting user trainings
* Understand and be able to independently customize SAP IM and StRM specific processes and know the integration points with other SAP Modules (MM, SD, FI, CO, TM, PP etc.)
* Demonstrate interpersonal skills and show team player attitude
* Enjoy communicating in complex situations
Internal
* Have the willingness to develop new professional skills

Education
Successfully completed studies in computer science, business informatics or a comparable qualification

Work Experience
- Ideally, extensive knowledge of logistics processes
- Experience in S4/Hana and ideally in a transformation project
- Sound experience with SAP StRM and SAPMM-IM including customizing and knowledge of other SAP modules, optimally with practical experience in the Solution Manager and S/4 HANA

Technical & Professional Knowledge
- Experience in at least one of the following SAP solutions (priority on order)
- SAP WM / Stock Room Management
- SAP LE (Logistics Execution)
- SAP MM (Inventory Management)
- S4/Hana environment
- Good communication skills

Nice to have:
- Experience with additional SAP modules, crossing with Warehouse Management SD, TM, PP, QM
- Generally good technical understanding (eg. SAP interfaces)
- Scanning
- Printing
- Labelling
- ABAP or Debugging skills

What's in it for you:
- A secure work environment because your health, safety and wellbeing is always our top priority.
- Flexible work schedule and Home-office options, so that you can balance your working life and private life.
- Learning and development opportunities
- 23 holiday days per year
- 5 days of adjustment
- 2 cultural days
- A collaborative, trustful and innovative work environment
- Being part of an international team and work in global projects
- Relocation assistance to Madrid provided

Chef de projet Data (F/H)

France, Île-de-France, Paris

  • €60,000 to €70,000 EUR
  • Engineer Stelle
  • Fähigkeiten: Matillion ELT, Qlik Replicate, Attunity Replicate, SAP, Snowflake
  • Seniority: Mid-level

Jobbeschreibung

Vous êtes passionné(e) par la gestion et l'exploitation des données ? Vous avez une expertise reconnue dans les outils d'intégration et de traitement de la donnée ? Rejoignez une entreprise dynamique spécialisée dans la création de produits haut de gamme et contribuez à transformer la data en un levier stratégique pour la performance.

Vos missions principales :

1. Collecte et analyse des besoins métiers

* Recueillir et analyser les besoins des différentes équipes métiers.
* Identifier et formaliser les besoins spécifiques pour orienter les choix technologiques.
* Participer à la sélection des solutions adaptées.

2. Développement et mise en œuvre des intégrations

* Développer et maintenir les flux d'intégration via des outils tels que Matillion ELT ou Qlik Replicate.
* Assurer la mise en place et l'optimisation des tâches d'intégration avec des outils comme Attunity Replicate.
* Gérer et suivre les charges liées aux projets de data intégration.

3. Pilotage et coordination

* Assister les équipes métiers dans la phase de recette et de mise en production.
* Suivre l'avancée des projets en collaboration avec les équipes techniques et les prestataires.
* Proposer et implémenter des plans d'amélioration continue pour renforcer l'efficacité des processus.

4. Expertise technologique et montée en compétence

* Exploiter des outils technologiques tels que Snowflake, SAP, ou PowerDesigner pour répondre aux besoins métiers.
* Participer à la montée en compétences méthodologiques et techniques des équipes internes.

Profil recherché :

* Expérience : 5 ans minimum dans un rôle similaire (responsable ou expert en data intégration).
* Compétences techniques :
* Maîtrise des outils d'intégration comme Matillion ELT, Qlik Replicate, et Attunity Replicate.
* Connaissances approfondies des environnements SAP, Snowflake
* Qualités personnelles : Organisation, autonomie, esprit d'analyse et capacité à travailler en équipe.

Candidatures confidentielles

Senior Machine Learning Engineer

USA, Texas, Dallas

  • $180,000 to $250,000 USD
  • Engineer Stelle
  • Fähigkeiten: Sagemaker, Data Science, Machine Learning, LLMs, NLP, Azure Machine Learning Studio
  • Seniority: Senior

Jobbeschreibung

Tenth Revolution Group are working with a leading real estate firm with over 60 years of history in the space.



The organization are looking to add to a data-driven solutions team. Candidates for this role must come with a masters level degree from a field such as Data Science or similarly analytical specialism. An ability to demonstrate a deep understanding and successful track record in the Machine Learning world is essential to be successful in your application for this position. Particularly as it relates to the design, build and deployment of ML models.



Deep Learning and NLP (Natural Language Processing) are essential requirements for this position, alongside prior experience working hands-on with LLMs (Large Language Models), building advanced systems and RAG pipelines. An ability, and flexibility, of designing/implementing tailored Neural Network architectures that relate to specific situational cases. This all ties in with the organizations overall goal of solving problems and an advancement in it's Automated Intelligence capabilities.



Experience with Amazon Web Services and tools listed below are required:

* SageMaker
* Python
* SQL
* Snowflake
* Big Data Technologies



This is a role that is best suited to someone who shares the organizations passion for leading the way, and embracing, emerging technology trends such as Machine Learning, GenAI, Natural Language Processing and more in the Cloud space.



This is a permanent position, based in the organizations Dallas offices, with a hybrid work policy that requires 3 days per week on site.

Lead Quality Engineer - Gen AI

England, London, City of London

  • £70,000 to £85,000 GBP
  • Engineer Stelle
  • Fähigkeiten: Quality Engineer, Engineering, GenAI, Gen AI, Generative AI, Artificial Intelligence, DevSecOps, QE, Testing
  • Seniority: Senior

Jobbeschreibung

Lead Quality Engineer - Gen AI - £85,000 + 10% - London - Hybrid



Company Overview:

My client is a global leader in the insurance industry, serving millions of customers worldwide. With strong financial foundations established over decades, their commitment to utilising innovative solutions and cutting-edge technologies is a key pillar of their recent success. They are also dedicated to ensuring the well-being and happiness of their employees through very flexible hybrid working patterns, as well as other amazing benefits, and a great company culture - over 4 out of 5 employees would recommend working here.



Role Overview:

As a Lead Quality Engineer you will play a major role in leading and contributing to continuous investment and growth across my clients platforms. You will establish Gen AI Quality Engineering capabilities through your knowledge, experience and ability to lead. You will be tasked with designing and evaluating these solutions, as well as assessing, tweaking and perfecting such processes.

This is an amazing opportunity to spearhead cutting-edge technological advancements with a major cooperation.



Requirements:

* Experience Leading and Growing a QE Team
* Generative AI Experience
* Strong Core Engineering Experience
* API Testing Experience



Benefits:

* Up to 10% Bonus
* Up to 14% Pensions Contribution
* 29 Days Annual Leave + Bank Holidays
* Free Company Shares



Interviews ongoing don't miss your chance to secure a role at the forefront of a digital revolution.



Contact me @ j.shaw-bollands@tenthrevolution.com or on 0191 338 6641.















Quality Engineer, Engineering, GenAI, Gen AI, Generative AI, Artificial Intelligence, DevSecOps, QE, Testing