Ihre aktuelle Jobsuche

861 Suchergebnisse

Für Festanstellung

Data Engineer

England, London, City of London

  • £55,000 to £75,000 GBP
  • Engineer Stelle
  • Fähigkeiten: ETL, AWS, Snowflake, Redshift, Python, SQL
  • Seniority: Senior

Jobbeschreibung

Have you ever wanted to be working with global clients on a daily basis? Getting your teeth into projects that last 9-15 months, working with edge-cutting technologies such as Redshift, SQL, Oracle, S3 buckets and loads more!



The group provides a wide range of data and analytics solutions in support of our client's business priorities: maximise revenues, bear down on fraud, and respond to current Covid challenges. This role is a unique chance to design, develop, test and support data and analytics software solutions, delivering key critical systems to the public sector. You will be part of an Agile software delivery team working closely with software architects and supported by product managers, scrum masters and solutions architects.



Benefits

* You will get put through certifications and will get upskilled to the best you can be
* There's a mentorship program as well (10 days of training a year, can be anything)
* Looking to hire 25-35 candidates this year looking to grow as well
* Flat structure within the business
* Opportunity to move internal as they hire from within before going to external agencies
* Working for a growing company averaging around 30% every year



Why this role?

Work as part of an Agile software delivery team; typically delivering within an Agile Scrum framework. You will work on the full range of software engineering principles; covering requirements gathering and analysis, solutions design, software coding and development, testing, implementation and operational support. You will contribute to the software engineering communities by providing your ideas for innovation and process improvement and coaching and mentoring other team members.


Why You?

* Good experience in the following technologies are recommended:
* ETL toolset (Talend, Pentaho, SAS DI, Informatica etc)
* Database (Oracle, RDS, Redshift, MySQL, Hadoop, Postgres, etc)
* Data modelling (Data Warehouse, Marts)
* Job Scheduling toolset (Job Scheduler, TWS, etc)
* Programming and scripting languages (PL/SQL, SQL, Unix, Python, Hive, HiveQL, HDFS, Impala, etc)



Good to have experience in the following technologies:
* Data virtualisation tools (Denodo)
* Reporting (Pentaho BA, Power BI, Business Objects)
* Data Analytics toolset (SAS Viya)
* Cloud (AWS, Azure, GCP)
* ALM Tooling (Jira, Confluence, Bitbucket)
* CI/CD toolsets (Gitlab, Jenkins, Ansible)
* Test Automation (TOSCA)


Experience:
You should have experience as a software engineer delivering within large scale data analytics solutions and the ability to operate at all stages of the software engineering lifecycle, as well as some experience in the following:
* Awareness of devops culture and modern engineering practices
* Experience of Agile Scrum based delivery
* Proactive in nature, personal drive, enthusiasm, willingness to learn
* Excellent communications skills including stakeholder management



Jefferson Frank is the Amazon Web Services (AWS) recruiter of choice. We work with organizations worldwide to find and deliver the best AWS professionals on the planet. Backed by private equity firm TPG Growth, we have a proven track record servicing the AWS recruitment market and, to date, have worked with over 30,000 organizations globally.

Fully Remote!! AWS Java Developer Role!!

USA, Georgia, Atlanta

  • Negotiable
  • Developer Stelle
  • Fähigkeiten: Springboot, Lambda
  • Seniority: Mid-level

Jobbeschreibung

Jefferson Frank is looking for a skilled and experienced AWS Java Developer to join our client's collaborative and talented team. This full-time AWS Java development role is remote in the US and comes with an attractive salary and benefits package.



As an AWS Java Developer, you will be responsible for designing, developing, and troubleshooting the company's Java microservices-based backend code base. You will work with software architects, a product team, architects, and a global development team to successfully implement new products and significant product additions.



In your first few weeks in this Senior Software Engineer role, you can expect to:

* Write automated unit, integration, and functional tests to deliver best-in-class, highly secure, and scalable software
* Communicate proactively on project status and changes that impact the deliverable's cost, timing, or quality
* Demonstrate a solutions-oriented attitude and consistently provide solutions to every problem
* Accept ownership for accomplishing new and different requests



To apply for this AWS Java development job, you will need 5+ years of backend or full-stack software development experience and 2+ years of Java development experience using the Spring Boot framework. You will also require the following:

* Expertise in building REST API for web and mobile applications
* Familiarity with using ORM technologies using Hibernate or JOOQ
* Experience with relational and non-relational databases like MySQL and Redis
* Expertise in AWS technologies, specifically EC2, ECS, RDS, SQS, SNS, etc.
* Familiarity with microservices architecture



In return for your dedication, collaboration, and commitment, you will receive a generous salary and benefits package, joining a welcoming and inclusive culture.



To learn more and apply for this remote AWS Java Developer job in the US, please get in touch with Jefferson Frank today. We look forward to hearing from you!

Jefferson Frank is the Amazon Web Services (AWS) recruiter of choice. We work with organizations worldwide to find and deliver the best permanent and contract AWS DevOps, Big Data, IaaS and PaaS, and AWS Security professionals on the planet.

Cloud Infrastructure Engineer- IaC- Customer Facing- US Citizen

USA, Kentucky, Louisville

  • $150,000 to $160,000 USD
  • DevOps Stelle
  • Fähigkeiten: AWS, Cloudformation, IAM
  • Seniority: Mid-level

Jobbeschreibung

Hey

Hope all is well. Given the nature of what you do, I wanted to reach out with this new stimulating opportunity for my client who is an (IT) and Audio Visual consultant focused on AV systems, AWS & Microsoft Cloud, Cyber Security, and Network Engineering. Their current clients are in enterprise businesses and government agencies across the United States.

Ideally, you will:
Maintain AWS Cloud Infrastructure in optimal configuration from both technical and budgetary perspectives
Compose and leverage AWS CloudFormation templates for utilization, to ensure repeatable, sustainable AWS infrastructure is effectively managed
Deploy, test and document development, pre-production, and production environments
Create Virtual Private Cloud (VPC) resources such as subnets, network access control lists, and security groups
Leverage resource tagging to allocate costs and optimize resource planning
Create gold images / AMIs and employ auto-scaling
Assist in preparing cost analysis based on expected usage
Configure multi-factor authentication on virtual and hardware devices.

Ideal experience:
Bachelor's degree in Computer Science, Information Technology, or related field
5+ years of proven experience in Information Technology with 3+ years of experience designing, developing and implementing cloud solutions
Experience with maintaining, configuring, and operating all components of AWS cloud environments required
Experience in migrating applications to Amazon Web Services required, Microsoft Azure, VMware or Google Cloud environments preferred
2+ years of application deployment and data migration on AWS, experience with EC2
Hands-on experience in Enterprise VPN and Amazon

What do you think?

Product Analyst - Remote - Perm

USA, New York

  • £100,000 to £135,000 GBP
  • Analyst Stelle
  • Fähigkeiten: AWS, SQL, Python, API
  • Seniority: Mid-level

Jobbeschreibung

Do you have product analysis experience, and are you seeking a new remote job? Jefferson Frank is helping a collaborative company recruit a Product Analyst, and the role comes with an attractive salary and benefits package.



As a flexible Product Analyst, you will track product KPIs and report on the success of short and long-term goals.



These are some of the things you will be doing in a typical week:

* Supporting customer inquiries and maintaining expertise with respect to data science and cloud billing files
* Assisting with proof-of-concept work to scope development efforts
* Constantly cycling data from various sources into the development cycle as user stories and epics
* Working with product owners, developers, and scrum masters to refine inputs and outputs of select stories.



To apply, you will need two years' experience as a product analyst, along with the following:

* Solid understanding or hands-on experience in software development or DevOps Engineering
* Intermediate skills with SQL Queries, Python, AWS, and API
* A basic understanding of public cloud including hands-on experience with cloud consoles
* Basic understanding of Agile.



If you're looking to impact and create change positively, you will be rewarded with an excellent salary and benefits package for your inclusive and committed approach.



If this full-time remote Product Analyst job motivates and inspires you, please contact Jefferson Frank today.

Jefferson Frank is the Amazon Web Services (AWS) recruiter of choice. We work with organizations worldwide to find and deliver the best permanent and contract AWS DevOps, Big Data, IaaS and PaaS, and AWS Security professionals on the planet.

Platform/DevOps Engineer

England, London

  • £60,000 to £100,000 GBP
  • DevOps Stelle
  • Fähigkeiten: AWS, Terraform, Kubernetes, Jenkins,
  • Seniority: Mid-level

Jobbeschreibung

The UK government has a bold IT vision based on user centric design, Agile development, open source software, continuous delivery, infrastructure automation, cloud computing and a DevOps culture. What it needs is partner organisations to help put this vision into practice. My client is one of those partners.

We want passionate, energetic Platform/DevOps Engineers to work as part of an agile team to help clients build and continuously improve digital services using the best of open source software. We're looking for Engineers that aren't afraid to roll up their sleeves and get stuck-in. You should learn quickly and love a challenge.

You'll be surrounded by some amazing people and working in one of the best cultures that you can find.

What you'll do

* You'll undertake cross-functional engineering projects, working in small teams with other engineers in different knowledge spheres, building supportable, sustainable and reliable services
* My client has a team of great engineers who work together in a community and help each other to deliver and develop as professionals. They work on large scale, technically challenging projects
* You'll work with great technology - the UK Government has an IT strategy based on user centric design, modern open source technology, continuous integration/delivery, and modern software architectures such as microservices and cloud technology to name but a few
* You'll get opportunities to develop and progress - You will be constantly learning through modern learning environments such as Linux Academy, A Cloud Guru and my Client's University. You will have the opportunity to attend conferences, support tech meetups, take part in hackathons, gain industry recognised certification and much, much more..

My client is a client-led organisation, but we offer a remote-first working policy to our clients. Our expectation is that our employees can work for up to 70% of their time remotely in any given month. As our ethos is to provide excellent service to our clients, we will balance client needs with employee preferences where possible. If you'd prefer to work in an office with your client or colleagues more frequently than this, we can arrange this too.

Things we like;

* Linux (RHEL/CentOS)
* Core Networking & Loadbalancing
* AWS
* Puppet
* Python / Ruby / Go
* Jenkins / Bamboo
* Git / GitHub / GitLab
* Graphite / Grafana / ELK / Prometheus
* SQL / NO-SQL DB's
* Docker (Swarm / Kubernetes)
* HashiCorp (Packer / Terraform / Vault / Consul)
*

Please note: Candidates must hold British Citizenship, ILR or Settled status and must hold or be eligible for SC Clearance.

Data Engineer (w/m/d) - Big Data & IoT

Germany, Baden-Württemberg, Stuttgart

  • Up to €75,000 EUR
  • Engineer Stelle
  • Fähigkeiten: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Mid-level

Jobbeschreibung

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Engineer (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Data Lakes und DWH Lösungen
- Erfahrung mit Opensource Lösungen, insb. Apache Technologien und Linux
- bestenfalls Erfahrung mit Cloudera, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Engineer erstellen Sie im Team Data Lakes und verteilte DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Bayern, Munich

  • Up to €95,000 EUR
  • Architect Stelle
  • Fähigkeiten: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Jobbeschreibung

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

Data Architect (w/m/d) - Big Data & IoT

Germany, Bayern, Nürnberg

  • Up to €95,000 EUR
  • Architect Stelle
  • Fähigkeiten: Data Engineering, Data Architecture, Data Lakes, Data Warehouse, DWH, Datenbanken, Cluster, Open Source, Hadoop, Spark, Kafka, Cloudera, Snowflake, AWS, Redshift, Azure, Data Factory, BigQuery, GCP, Cloud, DevOps, Ansible, Data Security
  • Seniority: Senior

Jobbeschreibung

Wir suchen für einen Kunden mit Standorten in ganz Deutschland hybrid oder remote:

Data Architect (w/m/d)

Technologien im Einsatz:

Sprachen: Python, SQL, Ansible
Datenverarbeitung: Apache Hadoop, Apache Spark
Data Streaming: Apache Kafka, Confluent
Cloud: Cloudera, AWS Redshift, Azure Data Factory, GCP BigQuery, Snowflake
Datenbanken: Couchbase, MariaDB

Anforderungen:
- Erfahrung im Aufbau von Enterprise Data Lakes und DWH Lösungen
- Erfahrung mit Hadoop Clustern, sowie mit Apache Spark und Confluent
- Erfahrung mit der Cloudera Datenplattform, Snowflake oder Public Cloud DWH Services
- verhandlungssichere Deutschkenntnisse

Worum es geht:

Das Unternehmen ist ein mittelständisches IT Dienstleistungsunternehmen, welches sich über die letzten 25 Jahre über ganz Deutschland ausgebreitet hat und aktuell alle großen IT Bereiche abdeckt, von der Cloud Transformation über die Softwareentwicklung bis hin zu Big Data und IoT, sowohl für die Privatwirtschaft als auch für den öffentlichen Sektor.

Als Data Architect sind Sie für die Erstellung von Data Lakes und verteilten DWH Cluster für die Speicherung von Big Data Datenpaketen und die spätere Aufbereitung durch das Analytics Team verantwortlich. Diese bestehen in der Regel aus Opensource Software, im Einsatz sind vor allem Apache Hadoop und Apache Spark, zum Teil in Kombination mit Public Cloud Services oder mit Cloudera. Sie steuern zudem die Datenströme hin zum Data Lake, zumeist mit Apache Kafka und schreiben Automatisierungen zur Skalierung der Datenbanken.

So für Kunden v.a. in der Industrie, aber auch in anderen Branchen wie im Gesundheitswesen. Zum Beispiel in einem Projekt für ein großes deutsches Gesundheitsinstitut, für das das Team eine Datenspeicherungs und -analyselösung für konsolidierte Forschungsdaten aufgesetzt hatte. Dies geschah in Zusammenarbeit mit dem Hersteller Cloudera, auf dessen Plattform das Team einen abgesicherten und skalierbaren Data Lake baute, sowie die zugehörigen Data Pipelines mit Apache Spark und Apache Kafka. Dies alles in einem agilen Umfeld nach der DevOps Mentalität.

Dafür wird Ihnen geboten:

Das Unternehmen setzt stark auf individuelle Vielfalt und die Weiterentwicklung aller Mitarbeitenden. So stellt das Unternehmen unbegrenzte Arbeitszeit und Mittel zur Verfügung für die Teilnahme an Kursen, Weiterbildungen und die entsprechende Zertifizierung in neuen Technologien. Zudem inzentiviert das Unternehmen den internen Wissensaustausch durch technologiespezifische Communities, bei denen neue Tools und mögliche Einsatzgebiete in den Projekten offen diskutiert werden.

Das Gehalt setzt sich aus einem fixen und einem variablen Gehaltsanteil zusammen, wobei der variable Anteil an den Einsatz in Projekten geknüpft ist. Die volle Ausschüttung erfolgt bereits bei 120 Projekttagen im Jahr. Teilweise kann es sein, dass Sie im Rahmen der Anforderungs-aufnahme und entlang eines Projektes auch beim Kunden eingesetzt werden. Dies ist natürlich auch mit einer entsprechenden Vergütung verbunden.

Hinzu kommt ein jährlicher Ausflug ins Phantasialand mit dem gesamten Fachbereich.

Impressum - https://www.frankgroup.com/de/impressum/

DevOps Engineer / Platform Engineer

England, Greater Manchester, Manchester

  • £60,000 to £65,000 GBP
  • DevOps Stelle
  • Fähigkeiten: DevOps, AWS, Amazon Web Service, Cloud, Terraform
  • Seniority: Mid-level

Jobbeschreibung

Platform / DevOps Engineer

- please note we cannot provide sponsorship -

- Have to be Eligible for SC Clearance or hold current SC Clearance -

£60,000 - £65,000

As a key member of an Engineering team, you'll be working with our customers to build systems that support their core mission capabilities. You'll work as part of empowered, autonomous DevOps teams to flexibly and efficiently understand, design, develop, deploy and maintain applications and services. You'll be encouraged to identify new ways of solving problems and get to work in a range of different teams across our customer organisations. You will work in a small team and be given as much ownership and responsibility as you have the appetite for. You'll be part of a much larger Engineering community to give you the support you want to grow your knowledge, and capabilities.

Skills & Qualifications

You will have experience of working in a DevOps / SRE / Infrastructure role. Great communication and problem solving skills are vital in this role, as is a desire to learn new technologies.

In addition will have:

* An appreciation of Infrastructure as Code, and CI/CD tooling
* Scripting abilities with languages such as Shell, Bash, or Python etc
* A working knowledge of Linux, networking, routing & firewalls etc
* Experience of working in an Agile environment (e.g. Scrum, Kanban, SAFe, XP, etc)

Benefits

* Competitive Salary
* Great bonus system
* Brilliant working environment
* Flexible working policy