Data- und Cloud-Engineer mit dem Fokus auf dem Schnittpunkt zwischen Big Data Engineering, Data Science und (Google) Cloud.
Aktualisiert am 02.07.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 14.07.2024
Verfügbar zu: 100%
davon vor Ort: 50%
Google Cloud Platform
SQL
Python
Apache Airflow
AWS
Hadoop
Spark
Big Data
cloud
Cloud architecture
CI/CD
data analytics
Data Lake
data pipelines
Docker
ETL
feature engineering
Git
machine learning
R
Terraform
Relational databases
Unix
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Spanisch
Fortgeschritten

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 5 Monate
2022-02 - heute

Konzeption und Implementierung der Datenbereitstellung

Data & GCP Cloud Engineer (freiberuflich) Google Cloud (Cloud Functions BigQuery Cloud Build ...
Data & GCP Cloud Engineer (freiberuflich)
  • Konzeption und Implementierung der Datenbereitstellung für eine Sales Reporting & eine Marketing Plattform
  • Realisierung der Big Data & GCP Architektur
  • Entwurf & Automatisierung von ETL-Prozessen (Datenpipelines)
  • Datenanalyse
  • Mentoring & Wissenstransfer
Google Cloud (Cloud Functions BigQuery Cloud Build Cloud Composer Logging) SQL Terraform Python (Pandas) Apache Airflow GCP Python
L'ORÉAL Deutschland GmbH, Düsseldorf
1 Jahr
2021-01 - 2021-12

Analytics/Data Engineering

Senior Consultant Google Cloud (CloudSQL Cloud Functions Pub/Sub ...
Senior Consultant
  • Google Cloud Architektur, Data- & Cloud-Engineering für einen Use Case im Bank/FSI Umfeld
  • Verantwortlich für die Datenbank und alle Datenprozesse (?Data Pipelines?) im Projekt
  • Datenmodellierung und -architektur, Implementierung und Leistungsoptimierung von relationalen Datenbanken
  • Datenpipeline-Engineering (Konzept, Entwicklung, Test)
  • Cloud-Architektur und -Implementierung
  • Kundenanpassung, Anforderungsanalyse/Engineering

Google Cloud (CloudSQL Cloud Functions Pub/Sub Logging Monitoring) Terraform Java Spring Boot Microserv GCP PostgreSQL Java Liquibase
Deloitte Consulting GmbH, Düsseldorf
2 Jahre 9 Monate
2018-04 - 2020-12

Analytics/Data Engineering

IT Consultant (Big Data Developer) Unix Spark Hadoop ...
IT Consultant (Big Data Developer)
  • Technische Konzeption, Orchestrierung, Entwicklung, Test und Deployment der Skripts zur Automatisierung, Planung und Kontrolle (Scheduling) der ETL Prozesse auf den Test- und Produktivsystemen (?UC4?) einer Hadoop Big Data Platform (IBM & Hortonworks)
  • Ad-hoc SQL-Datenanalysen zur tiefgreifenden Fehleranalyse
  • Leitung von Subprojekten
  • Roll-Out-Planung, CI/CD, Koordination des Operations Engineering
  • Visualisierung & Präsentation komplexer technischer Zusammenhänge
  • Technischer Entwurf, Entwicklung und Deployment der Skripte für die Automatisierung und Scheduling der ETL-Prozesse auf einer Hadoop Big Data Plattform (IBM & Hortonworks Data Lake)
  • Teilprojektleiter für die Plattformmigration, Management des Betriebsteams und zentrale Kontaktperson für das Deployment
  • Implementierung eines kompakten Cloud Data Science Anwendungsfalls mit Google Cloud Vision API
  • Geschäftsanalyse: Anforderungsanalyse, Kundenabstimmung
Unix Spark Hadoop Automic UC4
Deloitte Consulting GmbH, Düsseldorf
1 Jahr 6 Monate
2016-10 - 2018-03

Entwicklung von Google AdWords Skripten

JavaScript-Entwickler Google AdWords
JavaScript-Entwickler Google AdWords
  • Entwicklung von Google AdWords Skripten zur Erstellung von Reports (z.B. CTR) und Automatisierung von Abläufen (Kampagnenmanagement)
titus GmbH, Münster
2 Jahre 5 Monate
2015-11 - 2018-03

Organisation der Anpassung des Online-Shops

Projektmanager Schweiz
Projektmanager Schweiz
  • Organisation der Anpassung des Online-Shops sowie interner Prozesse (IT, Versand, Buchhaltung) an die Bedürfnisse Schweizer Kunden
  • Kommunikation mit Schweizer Behörden und Zoll
titus GmbH, Münster
1 Jahr
2012-10 - 2013-09

Organisation der Entwicklung des Zentralen Vordispositionssystems

IT Business Analyst
IT Business Analyst
  • Organisation der Entwicklung des Zentralen Vordispositionssystems:
    • Anforderungsanalyse und -konzeption
    • Projektmanagement
    • Qualitätssicherung
    • Entwicklung Automatisierter Tests
    • ?Support
OBI Smart Technologies, Wermelskirchen

Aus- und Weiterbildung

Aus- und Weiterbildung

3 Jahre
2014-10 - 2017-09

Information Systems

Master of Science (Englisch), Westfälische Wilhelms-Universität, Münster
Master of Science (Englisch)
Westfälische Wilhelms-Universität, Münster
  • Business Intelligence/Data Analytics: Data Science, R Programmierung, Data Integration, Datenqualität und Feature Engineering, Data Warehouse Management, KPI?s, ETL
  • Prozessmanagement: Workflow Management, Process Mining & Compliance, BPMN
  • Software Entwicklung: Java, JavaScript, PHP, Model-driven Engineering, KI Algorithmen
  • Projekt-Seminar:  Implementierung eines Recommender-Systems für die titus GmbH
  • Note: sehr gut (1,3)
  • Master-Arbeit: Thema gerne auf Anfrage
3 Jahre
2009-10 - 2012-09

Wirtschaftsinformatik

Bachelor of Science (Duales Studium), Duale Hochschule Baden-Württemberg, Heidenheim/ OBI Services GmbH
Bachelor of Science (Duales Studium)
Duale Hochschule Baden-Württemberg, Heidenheim/ OBI Services GmbH
  • Abschlussnote: 1,7
  • Theorieteil: Duale Hochschule Baden-Württemberg, Heidenheim
  • Studienschwerpunkt: IT-Security
  • Praxisteil: OBI Services GmbH eingesetzt bei OBI Smart Technologies GmbH, Wermelskirchen
  • Webentwicklung mit HTML/PHP/SQL; Workflowerstellung mit BPMN
  • Bachelor-Arbeit: Thema gerne auf Anfrage

Position

Position

DATA & CLOUD ENGINEER

Kompetenzen

Kompetenzen

Top-Skills

Google Cloud Platform SQL Python Apache Airflow AWS Hadoop Spark Big Data cloud Cloud architecture CI/CD data analytics Data Lake data pipelines Docker ETL feature engineering Git machine learning R Terraform Relational databases Unix

Produkte / Standards / Erfahrungen / Methoden

Profil
Ich bin freiberuflicher Data- und Cloud-Engineer und fokussiere mich auf den Schnittpunkt zwischen Big Data Engineering, Data Science und (Google) Cloud. Ich biete starke technische Fähigkeiten gepaart mit dem Bestreben, ein tiefes Geschäftsverständnis zu erlangen und den Status Quo zu hinterfragen. Meine praktische Erfahrung in verschiedenen Branchen deckt u.a. relationale Datenbanken (SQL), Python, Apache Airflow, Terraform, Java Spring Boot, Machine Learning und den Hadoop Stack (Cloudera und Spark) ab. Neue Themen und Technologien greife ich schnell auf. Durch meine Arbeit in interkulturellen, agilen Teams habe ich ausgeprägte Kommunikations- und Koordinationserfahrung sowie fundierte Präsentationsfähigkeiten erlangt. Als kundenorientierter Problemlöser trage ich durch meine analytische, strukturierte und kreative Herangehensweise seit über 10 Jahren wesentlich zu Projekterfolgen bei. Data & Cloud Engineer, der sich als analytischer und kundenorientierter Problemlöser versteht. Mit Schwerpunkt auf den Schnittpunkt von Big Data Engineering, Cloud und Data Science. Liefere Cloud-Software für Datenanalyse und BI unter Einhaltung von Fristen und Qualitätsanforderungen. AWS-, GCP- und Hadoop-zertifiziert. Erfahren in Kommunikation und Koordination durch die Arbeit in agilen Teams.

Kenntnisse

  • Cloud: GCP, AWS, IaC (Terraform)
  • Data: Relationale Datenbanken (d.h. SQL), ETL pipelines, Apache Airflow, Liquibase, feature engineering, machine learning, NoSQL
  • Coding: Python (pandas), R, Hadoop, Java Spring Boot, Git, CI/CD, Unix Shell, Javascript, Docker, Kubernetes
  • Design: microservices, APIs, Prozessautoatisierung und -management

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 5 Monate
2022-02 - heute

Konzeption und Implementierung der Datenbereitstellung

Data & GCP Cloud Engineer (freiberuflich) Google Cloud (Cloud Functions BigQuery Cloud Build ...
Data & GCP Cloud Engineer (freiberuflich)
  • Konzeption und Implementierung der Datenbereitstellung für eine Sales Reporting & eine Marketing Plattform
  • Realisierung der Big Data & GCP Architektur
  • Entwurf & Automatisierung von ETL-Prozessen (Datenpipelines)
  • Datenanalyse
  • Mentoring & Wissenstransfer
Google Cloud (Cloud Functions BigQuery Cloud Build Cloud Composer Logging) SQL Terraform Python (Pandas) Apache Airflow GCP Python
L'ORÉAL Deutschland GmbH, Düsseldorf
1 Jahr
2021-01 - 2021-12

Analytics/Data Engineering

Senior Consultant Google Cloud (CloudSQL Cloud Functions Pub/Sub ...
Senior Consultant
  • Google Cloud Architektur, Data- & Cloud-Engineering für einen Use Case im Bank/FSI Umfeld
  • Verantwortlich für die Datenbank und alle Datenprozesse (?Data Pipelines?) im Projekt
  • Datenmodellierung und -architektur, Implementierung und Leistungsoptimierung von relationalen Datenbanken
  • Datenpipeline-Engineering (Konzept, Entwicklung, Test)
  • Cloud-Architektur und -Implementierung
  • Kundenanpassung, Anforderungsanalyse/Engineering

Google Cloud (CloudSQL Cloud Functions Pub/Sub Logging Monitoring) Terraform Java Spring Boot Microserv GCP PostgreSQL Java Liquibase
Deloitte Consulting GmbH, Düsseldorf
2 Jahre 9 Monate
2018-04 - 2020-12

Analytics/Data Engineering

IT Consultant (Big Data Developer) Unix Spark Hadoop ...
IT Consultant (Big Data Developer)
  • Technische Konzeption, Orchestrierung, Entwicklung, Test und Deployment der Skripts zur Automatisierung, Planung und Kontrolle (Scheduling) der ETL Prozesse auf den Test- und Produktivsystemen (?UC4?) einer Hadoop Big Data Platform (IBM & Hortonworks)
  • Ad-hoc SQL-Datenanalysen zur tiefgreifenden Fehleranalyse
  • Leitung von Subprojekten
  • Roll-Out-Planung, CI/CD, Koordination des Operations Engineering
  • Visualisierung & Präsentation komplexer technischer Zusammenhänge
  • Technischer Entwurf, Entwicklung und Deployment der Skripte für die Automatisierung und Scheduling der ETL-Prozesse auf einer Hadoop Big Data Plattform (IBM & Hortonworks Data Lake)
  • Teilprojektleiter für die Plattformmigration, Management des Betriebsteams und zentrale Kontaktperson für das Deployment
  • Implementierung eines kompakten Cloud Data Science Anwendungsfalls mit Google Cloud Vision API
  • Geschäftsanalyse: Anforderungsanalyse, Kundenabstimmung
Unix Spark Hadoop Automic UC4
Deloitte Consulting GmbH, Düsseldorf
1 Jahr 6 Monate
2016-10 - 2018-03

Entwicklung von Google AdWords Skripten

JavaScript-Entwickler Google AdWords
JavaScript-Entwickler Google AdWords
  • Entwicklung von Google AdWords Skripten zur Erstellung von Reports (z.B. CTR) und Automatisierung von Abläufen (Kampagnenmanagement)
titus GmbH, Münster
2 Jahre 5 Monate
2015-11 - 2018-03

Organisation der Anpassung des Online-Shops

Projektmanager Schweiz
Projektmanager Schweiz
  • Organisation der Anpassung des Online-Shops sowie interner Prozesse (IT, Versand, Buchhaltung) an die Bedürfnisse Schweizer Kunden
  • Kommunikation mit Schweizer Behörden und Zoll
titus GmbH, Münster
1 Jahr
2012-10 - 2013-09

Organisation der Entwicklung des Zentralen Vordispositionssystems

IT Business Analyst
IT Business Analyst
  • Organisation der Entwicklung des Zentralen Vordispositionssystems:
    • Anforderungsanalyse und -konzeption
    • Projektmanagement
    • Qualitätssicherung
    • Entwicklung Automatisierter Tests
    • ?Support
OBI Smart Technologies, Wermelskirchen

Aus- und Weiterbildung

Aus- und Weiterbildung

3 Jahre
2014-10 - 2017-09

Information Systems

Master of Science (Englisch), Westfälische Wilhelms-Universität, Münster
Master of Science (Englisch)
Westfälische Wilhelms-Universität, Münster
  • Business Intelligence/Data Analytics: Data Science, R Programmierung, Data Integration, Datenqualität und Feature Engineering, Data Warehouse Management, KPI?s, ETL
  • Prozessmanagement: Workflow Management, Process Mining & Compliance, BPMN
  • Software Entwicklung: Java, JavaScript, PHP, Model-driven Engineering, KI Algorithmen
  • Projekt-Seminar:  Implementierung eines Recommender-Systems für die titus GmbH
  • Note: sehr gut (1,3)
  • Master-Arbeit: Thema gerne auf Anfrage
3 Jahre
2009-10 - 2012-09

Wirtschaftsinformatik

Bachelor of Science (Duales Studium), Duale Hochschule Baden-Württemberg, Heidenheim/ OBI Services GmbH
Bachelor of Science (Duales Studium)
Duale Hochschule Baden-Württemberg, Heidenheim/ OBI Services GmbH
  • Abschlussnote: 1,7
  • Theorieteil: Duale Hochschule Baden-Württemberg, Heidenheim
  • Studienschwerpunkt: IT-Security
  • Praxisteil: OBI Services GmbH eingesetzt bei OBI Smart Technologies GmbH, Wermelskirchen
  • Webentwicklung mit HTML/PHP/SQL; Workflowerstellung mit BPMN
  • Bachelor-Arbeit: Thema gerne auf Anfrage

Position

Position

DATA & CLOUD ENGINEER

Kompetenzen

Kompetenzen

Top-Skills

Google Cloud Platform SQL Python Apache Airflow AWS Hadoop Spark Big Data cloud Cloud architecture CI/CD data analytics Data Lake data pipelines Docker ETL feature engineering Git machine learning R Terraform Relational databases Unix

Produkte / Standards / Erfahrungen / Methoden

Profil
Ich bin freiberuflicher Data- und Cloud-Engineer und fokussiere mich auf den Schnittpunkt zwischen Big Data Engineering, Data Science und (Google) Cloud. Ich biete starke technische Fähigkeiten gepaart mit dem Bestreben, ein tiefes Geschäftsverständnis zu erlangen und den Status Quo zu hinterfragen. Meine praktische Erfahrung in verschiedenen Branchen deckt u.a. relationale Datenbanken (SQL), Python, Apache Airflow, Terraform, Java Spring Boot, Machine Learning und den Hadoop Stack (Cloudera und Spark) ab. Neue Themen und Technologien greife ich schnell auf. Durch meine Arbeit in interkulturellen, agilen Teams habe ich ausgeprägte Kommunikations- und Koordinationserfahrung sowie fundierte Präsentationsfähigkeiten erlangt. Als kundenorientierter Problemlöser trage ich durch meine analytische, strukturierte und kreative Herangehensweise seit über 10 Jahren wesentlich zu Projekterfolgen bei. Data & Cloud Engineer, der sich als analytischer und kundenorientierter Problemlöser versteht. Mit Schwerpunkt auf den Schnittpunkt von Big Data Engineering, Cloud und Data Science. Liefere Cloud-Software für Datenanalyse und BI unter Einhaltung von Fristen und Qualitätsanforderungen. AWS-, GCP- und Hadoop-zertifiziert. Erfahren in Kommunikation und Koordination durch die Arbeit in agilen Teams.

Kenntnisse

  • Cloud: GCP, AWS, IaC (Terraform)
  • Data: Relationale Datenbanken (d.h. SQL), ETL pipelines, Apache Airflow, Liquibase, feature engineering, machine learning, NoSQL
  • Coding: Python (pandas), R, Hadoop, Java Spring Boot, Git, CI/CD, Unix Shell, Javascript, Docker, Kubernetes
  • Design: microservices, APIs, Prozessautoatisierung und -management

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.