Recherche actuelle

220 Résultats de la recherche

For CDI

Data Architect (w/m/d) - Big Data & IoT

Germany, Nordrhein-Westfalen, Cologne

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Nordrhein-Westfalen, Dortmund

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Niedersachsen, Hannover

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Sachsen, Leipzig

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Berlin

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany

  • Up to €95,000 EUR
  • Architect Role
  • Skills: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Description du poste

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

AWS Cloud Solution Architect - Up to £90,000

England, London

  • £75,000 to £90,000 GBP
  • Architect Role
  • Skills: AWS, Terraform, Jenkins, Docker, Kubernetes, SDLC
  • Seniority: Senior

Description du poste

AWS Cloud Solution Architect - Up to £90,000

Fully Remote



Role & Responsibilities

* Work on some of the most bleeding edge cloud-native architectures in development today.
* Take end-to-end ownership of shaping solutions & defining the right architectural approach.
* Support estimation, planning and delivery as a Technical Leader.
* Collaborate closely with our engineering teams to ensure our solutions are built to reflect your solution vision and make the best use of current development practices.
* Maintain technical relationships with our clients and technology partners.
* Be a trusted technology adviser to our clients as well as to your colleagues.

Skills & Qualifications

* Excellent knowledge of exploiting at least one major Cloud platform (pref. AWS) for delivery of cloud-native solutions.
* A self-motivated desire to continually learn and improve.
* A strong background in Java and core open source technologies and frameworks; experience of building scalable, resilient and secured applications.
* Exposure to and some experience of working with structured architecture approaches (e.g. TOGAF).
* Experience of working in collaborative teams.

* Experience of Agile / Scrum methodology.

* Working with distributed, off-shore delivery teams.
* Microservice-based architectures using domain driven design (DDD) , CQRS and Event Sourcing patterns.
* Containerisation technologies: Docker or Kubernetes.
* DevOps background/experience.
* API-centric architectures.
* NoSQL databases.
* JavaScript frameworks (e.g. ReactJS, NodeJS).



To find out more about this great opportunity get in touch with me via the following channels:

Email: j.mckelvey@jeffersonfrank.com

Phone: 0191 338 7638

AWS Data Architect

England, West Midlands, Birmingham

  • £85,000 to £100,000 GBP
  • Architect Role
  • Skills: S3, Redshift, Glue, Athena, Informatica, Snowflake, RDS
  • Seniority: Senior

Description du poste

Data Architect



This is an exciting opportunity for someone to make a profound impact architecting and designing cloud native solutions and serverless architectures. I am working with an Amazon Web Services (AWS) Premier Partner and have been awarded the AWS ML Partner of the Year 2020, we are extremely well-positioned at the forefront of this fast-paced cutting-edge technology space.



The Role:

* Build strong relationships with clients, understanding their motivations behind projects and own technical activities to ensure the required business value is delivered. Acting as the technical authority and escalation point for AWS technical issues and decisions.



* Translate business requirements (both functional and non-functional) into a solution, ensuring compliance with the organisations strategy, policies and standards and in some cases, help customers to define new policies, principles and standards.



* With Data Engineers define for our client's data pipelines and data lakes, covering the ingression, ETL or ELT, and the cataloging of data. Insuring that compliance, regulatory, retention, backup and security requirements are taken into account.



* Provide solutions that have operational excellence built in from the ground up, including high availability, elastic scaling, disaster recovery, centralise logging, monitoring, alerting, change control and cost tracking + optimisation. Allowing for easy transition of solutions from implementation to production, owning the hand over to either a client or our in-house Service Management teams.



* Assist in all aspect of the engagement life cycle, supporting the Pre-Sales, Sales, and Delivery functions of the business. This includes strong communications skills and the production of excellent technical designs and documents to potential and existing clients. Showing a willingness to meet clients and go the extra mile when required



Essential Experience:



* Proven AWS design, implementation and support experience
* Excellent document production skills - design documents and architecture diagrams
* Background in application development and experience in at least one high level programming language (ideally Java, Python or Node JS).
* Strong Agile experience.
* In depth knowledge in: o AWS network services (AWS VPC, Subnetting, Security Groups, and Routing)

o AWS core services (EC2, RDS, S3, and ElastiCache)

o AWS serverless services (Lambda, API GW, SNS, SQS, and Dynamo DB)

* Ability to create high quality Cloud Formation or Teraform scripts, proven ability to use the AWS CL and GIT/SVN.
* Strong Unix and Bash knowledge.
* AWS Solution Architect, Associate Certification or at least 3 years' experience of AWS.





Desirable requirements:

* Knowledge and understanding of the Well Architected Framework including the Serverless Lens
* Understanding or some exposure to Data Lakes and Data Engineering with knowledge of AWS data lake services (Glue, Glue Catelog, RedShift, Athena, Kinesis).
* Developed solutions using AWS SAM or the Serverless Framework and defined APIs in Swagger.
* Understanding of continuous integration and delivery, with implementation in AWS Code* or Jenkins.
* Evidence of cross-vendor work as opposed to a candidate who wants to remain skilled in a single vendor's technologies
* Desire to interact closely with customers and build strong relationships



Jefferson Frank is the Amazon Web Services (AWS) recruiter of choice. We work with organizations worldwide to find and deliver the best AWS professionals on the planet. Backed by private equity firm TPG Growth, we have a proven track record servicing the AWS recruitment market and, to date, have worked with over 30,000 organizations globally.

AWS Data Architect-Remote

USA, Illinois, Chicago

  • $170,000 to $180,000 USD
  • Architect Role
  • Skills: AWS/Redshift/DataLake/EMR
  • Seniority: Senior

Description du poste

One of our best clients is looking to bring on a talented AWS Architect to continue to grow their team. The role is responsible for delivering value to the business through overseeing the ongoing maintenance and optimization of the AWS environments through leveraging the various tools in and outside of AWS, providing forward looking direction for third party and custom-built cloud systems, leadership of the in-house and outsourced support teams supporting the cloud environment. That includes networking, monitoring, scaling, automation, security and other responsibilities needed to maintain the environment. Additionally, partner with various stakeholder teams to support their cloud hosting needs. Requirements:

* Strong Knowledge of AWS and Cloud Computing concepts (preferred experience with AWS Elastic Beanstalk, CloudFormation)
* Strong knowledge in Cloud Financial Management with hands-on experience with AWS native and 3rd party cost management tools (Cost Explorer, Savings Plans, RIs, Cloudability)
* Strong knowledge of Linux (Ubuntu, CentOS, RedHat) and/or Window Servers and associated technologies (Active Directory, DNS)
* Experience with monitoring and management tools, deployment processes and tools (Zabbix, Prometheus, Grafana)
* Knowledge of Service Delivery (DevOps) and technical quality control processes, artifacts and related tools



They are offering a very competitive salary, bonus and benefits. The role is fully remote with an opportunity to grow.

Data Architect - Up to £115,000 - Fully Remote

England, London

  • £95,000 to £115,000 GBP
  • Architect Role
  • Skills: AWS, S3, Redshift, Lambda, Glue, Athena, Snowflake, Informatica
  • Seniority: Senior

Description du poste

An AWS Premier Partner and exciting Data Analytics and Machine Learning focused consultancy is recruiting for a Data Architect to join their expanding team. This is an exciting opportunity for someone to make a profound impact architecting and designing cloud native solutions and serverless architectures. You will be required to use, exploit, and recommended the latest and greatest tech with high profile, enterprise clients. Providing clients with their first experience of our client's delivery capability and approach.

The Role:

* Build strong relationships with clients, understanding their motivations behind projects and own technical activities to ensure the required business value is delivered. Acting as the technical authority and escalation point for AWS technical issues and decisions.



* Translate business requirements (both functional and non-functional) into a solution, ensuring compliance with the organisations strategy, policies and standards and in some cases, help customers to define new policies, principles and standards.



* Be required to take advantage of Serverless technologies in designing AWS solutions; such as Lambda, S3, Dynamo DB, and API Gateway. Showing skill in balancing the upfront investment in the implementation of a solution against business and delivery priorities, including avoiding where possible technology lock-in and maximising value to our clients.



* With Data Engineers define for our client's data pipelines and data lakes, covering the ingression, ETL or ELT, and the cataloging of data. Insuring that compliance, regulatory, retention, backup and security requirements are taken into account.



* Working closely with Data Scientists at understanding the needs and implementation of Artificial Intelligence, Machine Learning and Deep learning applications. This includes the training of models, testing of accuracy, the inference process and making predictions with hosted models or batch processing.



* Provide governance and oversight over the low-level implementation of projects (especially security and performance). Supporting DevOps engineers and helping them to take advantage of continuous integration and delivery were ever possible.



* Provide solutions that have operational excellence built in from the ground up, including high availability, elastic scaling, disaster recovery, centralise logging, monitoring, alerting, change control and cost tracking + optimisation. Allowing for easy transition of solutions from implementation to production, owning the hand over to either a client or our in-house Service Management teams.



* Assist in all aspect of the engagement life cycle, supporting the Pre-Sales, Sales, and Delivery functions of the business. This includes strong communications skills and the production of excellent technical designs and documents to potential and existing clients. Showing a willingness to meet clients and go the extra mile when required.



* Contribute continually to improving the development of AWS standards, best practices and organisational capability within the company. This includes opportunity to pick up and learn new AWS Services and technologies. Providing technical reviews and playbacks to the team, with the progression into being recognised as a subject matter expert within the organisation.



* Perform deep dives into technical areas to solve a specific solution or design challenges. Using trials or POCs to prove or discount an approach, in order to critic your own design.

Essential Experience:

* Proven AWS design, implementation and support experience
* Excellent document production skills - design documents and architecture diagrams
* Ability to present work directly to clients
* Background in application development and experience in at least one high level programming language (ideally Java, Python or Node JS).
* Strong Agile experience.

* In depth knowledge in: AWS network services (AWS VPC, Subnetting, Security Groups, and Routing)
* o AWS core services (EC2, RDS, S3, and ElastiCache)
* o AWS serverless services (Lambda, API GW, SNS, SQS, and Dynamo DB)
* Ability to create high quality Cloud Formation or Teraform scripts, proven ability to use the AWS CL and GIT/SVN.
* Strong Unix and Bash knowledge.
* AWS Solution Architect, Associate Certification or at least 3 years' experience of AWS.



Desirable requirements:

* AWS Solution Architect, Professional Certification and/or AWS Developer, Associate Certification
* Knowledge and understanding of the Well Architected Framework including the Serverless Lens
* Lead the design and implementation of Step Functions.
* Understanding or some exposure to Data Lakes and Data Engineering with knowledge of AWS data lake services (Glue, Glue Catelog, RedShift, Athena, Kinesis).
* Developed solutions using AWS SAM or the Serverless Framework and defined APIs in Swagger.
* Understanding of continuous integration and delivery, with implementation in AWS Code* or Jenkins.
* Skill and experience flexibility over a narrow but deep specialism
* Evidence of cross-vendor work as opposed to a candidate who wants to remain skilled in a single vendor's technologies
* Evidence of continual learning and attacking new domains
* Willingness to travel, on average 1 day per week
* Desire to interact closely with customers and build strong relationships
* 'Can Do' and 'Above and Beyond' attitude to work.
* Understanding and some exposure to Machine learning, AI and Data Science