Python, R, Apache Spark, Data Science
Aktualisiert am 03.03.2023
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 15.03.2023
Verfügbar zu: 100%
davon vor Ort: 100%
Python
R
Apache Spark
Keras
TensorFlow
Machine Learning
OpenCL
Projekt Management
Big Data
Oracle
Datenbankentwickler
SQL
PL-SQL
T-SQL
Perl
Java
J2EE
Risikocontrolling
Data Scientist
Künstliche Intelligenz
Data Engineer

Englisch, Französisch (Schule)

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

6 Monate
2020-01 - 2020-06

Risiko-Abschätzung, Testphase

Python-Spezialist Python Jupyter PyTest ...
Python-Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

Pflege und Weiterentwicklung der Deep Learning Modelle. Automatisierung des Deployment-Prozesses. Testphase.

ETL Marktdaten und Bestandsdaten.

Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.

Neue Modell-Ideen wurden evaluiert und
Fine-Tuning der bestehenden Modelle vorgenommen.
Eine Test-Umgebung ist aufgebaut sowie Testfälle sind erstellt worden.
Die fachlichen Tests wurden begleitet und Bugs gefixt.
Ferner standen Code-Finishing und Dokumentierung an.
Das Deployment wurde automatisiert und verbessert.

Python Jupyter PyTest NumPy Pandas Matplotlib Flask Dash Plotly NUMBA Dask Spark C Cython OpenCL AVX SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka Kubernetes Docker MS Windows LINUX Git Atlassian JIRA AWS
Fintech
1 Jahr
2019-01 - 2019-12

Risiko-Abschätzung, Migration Python

Python-Spezialist Python Jupyter PyTest ...
Python-Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

Umstellung der JAVA und R Komponenten/Tools auf Python.

ETL Marktdaten und Bestandsdaten.

Pflege und Optimierung der Deep Learning Modelle. Backtest-Abläufe etablieren. Deployment im Docker-Container.

Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.

Vorhandene Java-Komponenten wurden sämtlich nach Python migriert.
Die besonders kritischen Stellen sind mit NUMBA und C-/Cython umgesetzt. Außerdem kamen parallele Packages zum Einsatz, wie Dask und Apache Spark. Die bisherigen R-Tools vornehmlich für die statistische Beurteilung der Features und der Modelle sind ebenfalls nach Python mit den entsprechenden Packages migriert worden.
Der existierende Python-Deep-Learning-Code wurde adaptiert und optimiert. Hinzu kamen neu-erstellte Backtesting-Abläufe.
Die Bestandteile wurden in Docker-Containern implementiert.

Python Jupyter PyTest NumPy Pandas Matplotlib Flask Dash Plotly NUMBA Dask Spark C Cython OpenCL AVX SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka Kubernetes Docker MS Windows LINUX Git Atlassian JIRA AWS
Fintech
10 Monate
2018-03 - 2018-12

Risiko-Abschätzung, Modell-Variationen

Python / R / Java ? Spezialist Java JDBC Hibernate ...
Python / R / Java ? Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

ETL Marktdaten und Bestandsdaten.
Verarbeitung von zusätzlichen Features, Scraping von Unternehmens-Nachrichten, Prototyp Sentiment Analyse, Rekurrente Netze (RNN, LSTM und GRU). Neuronale Netze für Klassifikation.
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden: Random Forrest, SVM, XGBoost, Clustering, t-SNE, PCA, MDS. Modell Optimierung.

Es wurde eine Umgebung geschaffen, um Modell-Modifikationen schneller zu verifizieren. Die entsprechenden Tools fundierten auf R und Shiny. Die überwiegende Zeit fiel auf das Engineering der Modelle, Parameter-Optimierung und Trainings-Läufe.

Neue Features wurden hinzugefügt und Features konfigurierbar gemacht.
Als Prototyp wurden Sentiment-Informationen für die Assets mit dem NLTK
und einem DL-Netz generiert. Die Schnittstelle für externe ?Abnehmer? bildete eine REST-API. Logging und Dokumentation der Läufe sind automatisiert worden.

Java JDBC Hibernate JSON Jsoup JUnit log4j OpenCL JOCL R RStudio dplyr tidyr DT ggplot2 Shiny Python Jupyter NumPy Pandas Matplotlib SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka MS Windows LINUX Git Atlassian JIRA AWS
Fintech
1 Jahr 1 Monat
2017-02 - 2018-02

Risiko-Abschätzung, Vertikales Prototyping

Python / R / Java ? Spezialist Java JDBC Hibernate ...
Python / R / Java ? Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

ETL, Datenmodellierung, Prototypen,
Beschaffung Marktdaten (finnhub.io, investing.com, etc.)
Abzug Bestands-Daten,
Daten-Verdichtung, Feature Engineering, Machine-Learning,
Deep Learning mit Dense-Layern, Regression-Modell,
Statistische Beurteilung und Visualisierung der Modell-Qualität mit R und Shiny.
Vertikales Prototyping, Durchstich

Zunächst wurde eine Datenbank mit Intraday-Befüllung aufgebaut. Der Hauptteil der Arbeit entfiel auf das Feature-Engineering. Da viel Rechenleistung erforderlich war, kam hier Java und OpenCL zur Anwendung.
Dies war die Basis für die weitere Modell-Entwicklung und Optimierung. Es wurden Entwicklungen mit TensorFlow-Java und TensorFlow-Python durchgeführt.
Die Wahl für diese Komponente fiel aber auf Python.
Die Datenanalyse und die Analyse der Deep-Learning Modelle erfolgte mit R. Primäres Ziel dieser Phase war ein vertikaler Prototyp, bei dem Kafka die Data Streams steuerte.

Finnhub investing.com
Java JDBC Hibernate JSON JUnit log4j OpenCL JOCL R RStudio dplyr tidyr DT ggplot2 Shiny Python Jupyter NumPy Pandas Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka MS Windows LINUX Git Atlassian JIRA AWS
Fintech
2 Jahre 6 Monate
2014-07 - 2016-12

Redesign Risiko-Controlling System

IT Consultant JAVA ORACLE 11g Big Data ...
IT Consultant
FRTB - Fundamental Review of the Trading Book
EBA Stress-Tests

Umstellung auf neue Gesetzeslage BASEL III

Übernahme der Daten vom Front End und den Risk Engines
Übernahme der Markdaten
Extract, Transform, Load (ETL)
Vorhalten der Roh-Daten
Kalkulation der Risiko-Kennzahlen basierend auf statistischen, mathematischen Modellen
Multi-dimensionale Aggregation und Daten-Analyse
Historische Simulation, Monte-Carlo-Simulation, Korrelations-Analysen
Value At Risk, verschiedene Konfidenz-Niveaus, Hedge-Effekte, Marginal, Residual
Stress-Testing, Sensitivitäten, Griechen
Backtesting, Q-Test und weitere Auslieferung an diverse Abnehmer-Systeme (Data Abstraction Layer)


Es waren diverse Schnittstellen für die zentrale Datenhaltung zu konzipieren. Die Daten wurden in einer Datenbank konsolidiert. Die statistische Vorbereitung der Daten erfolgte an mehreren Stellen vornehmlich in der ORACLE Datenbank, in Active-Pivot und in SAS EBI. Sie gelangten jeweils wieder in die Datenbank. Von dort wurden sie statistisch finalisiert und über einen Abstraction Layer (DAL) an verschiedene Abnehmer geliefert. Das waren die internen Systeme inklusive de Microsoft .NET Web-Applikation und dem SAS Reporting. Weitere externe Abnehmer wurden ebenfalls beliefert.
Ein Risiko-Controlling System gehört zu den komplexesten IT-Systemen einer Bank mit täglichen Meldungen an den Vorstand und die Aufsichtsbehörden. Dementsprechend groß ist das Team. Koordination, Realisierung und Validierung der berechneten statistischen Risikozahlen hielten sich die Waage.

JAVA ORACLE 11g Big Data Data Mining Microsoft .NET HTML CSS Javascript R RStudio PCA Dimension-Reduction SVM Quartet FS Active-Pivot SAS Enterprise BI-Server Oracle 12c ORACLE Coherence
Großbank
Frankfurt am Main, London
1 Jahr 6 Monate
2013-01 - 2014-06

Erweiterungen im Liquiditäts-Risiko

IT Consultant JAVA R ORACLE 10g ...
IT Consultant
ANL (FCE, BSL, DTS)
Liquiditäts-Ablauf-Bilanz (LAB),
Liquiditätsfristen-Transformation, Funds Transfer Pricing (FTP)
Liquidity Coverage Ratio (LCR)
Net Stable Funding Ratio (NSFR)
BASEL III

Modellierungen für die Risikomessung
Differenzierung und Simulation der Risikofaktoren
Verbesserung Stress-Testing
Modellierung des Bodensatzes
Modelle für Laufzeitbänder
Modelle unter Einbeziehung historischer Zeitreihen
Modelle auf Basis historischen Ziehungsverhaltens
Haircuts-Berechnung

Aufgrund gesetzlicher Anforderungen war das bisherige Liquiditäts-Risiko-System zu erweitern, das ich in großen Teilen konzipiert hatte. Einhergehend mit einer starken Ausdehnung des Datenhaushaltes bis auf Einzelgeschäfts-Ebene.
In einem Vor-Projekt waren neben den fachlichen statistischen auch die technischen Anforderungen zu untersuchen.
Unter anderem wurden teilweise prototypisch SAP HANA, Sybase IQ, IBM Netezza, ORACLE 11, Quartet FS Active-Pivot und andere betrachtet.
Auf statistisch fachlicher Seite waren entsprechende Szenarien zur Daten-Integration zu abzuarbeiten und Modellierungen voranzutreiben.
Das Risiko-Modell wurde grundlegend ausgeweitet.
Wegen der hohen Hürden hinsichtlich Historie und nachträglichen Auswertbarkeit wurde ein längerer Parallellauf des alten und neuen Systems beschlossen. Verbunden mit großen Validierungs-Aufwänden.
JAVA R ORACLE 10g ORACLE 11g HTML CSS JavaScript Quartet FS Active-Pivot J2EE JBoss IBM WebSphere Maven JSF Spring JPA Hibernate BIRT
Großbank
Frankfurt am Main
1 Jahr
2007-07 - 2008-06

Marktdaten-Abruf Eurex, Reuters, Datastream

Entwickler JAVA C ORACLE
Entwickler

Marktdaten Bereitstellung für Intraday Risk.

Neu-Entwicklung Client für EUREX und EEX in C und JAVA.

Weiterentwicklung und Betreuung der JAVA-Clients für Reuters und DataStream.

Erweiterung Daten-Modell

Ablage der FX- und Equity-Marktdaten in ORACLE-Datenbank.

Eurex Reuters Market Data System Datastream
JAVA C ORACLE
Broker
Frankfurt am Main

Position

Position

Lead-Developer, Data Scientist, Business Analyst, Tester, Projekt-Manager

Kompetenzen

Kompetenzen

Top-Skills

Python R Apache Spark Keras TensorFlow Machine Learning OpenCL Projekt Management Big Data Oracle Datenbankentwickler SQL PL-SQL T-SQL Perl Java J2EE Risikocontrolling Data Scientist Künstliche Intelligenz Data Engineer

Produkte / Standards / Erfahrungen / Methoden

Allgemein

Betriebswirtschaftliche Kenntnisse:

Unternehmensführung, Projektmanagement (GPM / IPMA, SCRUM),
Controlling, Bilanzierung (HGB, IFRS), Buchhaltung, Steuern (KStG, ESt)
Marketing, Recht

 

Finanzwirtschaftliche Kenntnisse:

Risiko Controlling (RC), Risiko Management (RM)
BASEL II/2.5/III, SolvV, Solvency II, CRD IV
Marktrisiko, Derivate Bepreisung, Margin Kalkulation, Marktdaten
Liquiditätsrisiko, Liquiditäts-Controlling, Liquiditäts-Ablauf-Bilanz (LAB),
Net Stable Funding Ratio (NSFR), Liquidity Coverage Ratio (LCR)
Kreditrisiko, Asset-Backed Securities (ABS)
Operationelles Risiko (OpRisk)

 

IT-Skills:
SAS Enterprise BI
Apache Spark
ORACLE, SYBASE, MySQL, Postgres Datenbank-Systeme
Tomcat, J2EE, JBOSS, IBM Websphere

Assembler, Basic, C, C++, Perl, PL/SQL, T-SQL, OpenCL

Java, JDBC, JOCL, JUnit, Jsoup, log4j, Spring, JSF, Hibernate, BIRT, Maven
JavaScript, HTML, CSS

Python, Jupyter, PyCharm, VsCode,
Numpy, Pandas, Sqlite, Matplotlib, NUMBA, Cython,
Flask, Shiny, Dash, Plotly,
scikit-learn, SciPy, XGBoost, Dask, Arrow, PySpark, PyTest,
Keras, TensorFlow, PyTorch, NTLK,
Apache Spark

R, RStudio, dplyr, tidyr, ggplot, TidyVerse, DT

Machine Learning (ML), Deep Learning (DL), Küstliche Intelligenz (KI),
Neuronale Netze (NN, CNN, RNN, LSTM, GRU)
Reinforcement Learning (RL)

Apache Kafka, Kubernetes, Docker

Git, Microsoft Project, Microsoft Office, JIRA, HP Quality Center

Microsoft Windows, Solaris, LINUX
AWS, Azure

Branchen

Branchen

Banken

Finanzdienstleistern

Versicherungen

Logistik

Pharmazeutik

Industrie

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

6 Monate
2020-01 - 2020-06

Risiko-Abschätzung, Testphase

Python-Spezialist Python Jupyter PyTest ...
Python-Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

Pflege und Weiterentwicklung der Deep Learning Modelle. Automatisierung des Deployment-Prozesses. Testphase.

ETL Marktdaten und Bestandsdaten.

Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.

Neue Modell-Ideen wurden evaluiert und
Fine-Tuning der bestehenden Modelle vorgenommen.
Eine Test-Umgebung ist aufgebaut sowie Testfälle sind erstellt worden.
Die fachlichen Tests wurden begleitet und Bugs gefixt.
Ferner standen Code-Finishing und Dokumentierung an.
Das Deployment wurde automatisiert und verbessert.

Python Jupyter PyTest NumPy Pandas Matplotlib Flask Dash Plotly NUMBA Dask Spark C Cython OpenCL AVX SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka Kubernetes Docker MS Windows LINUX Git Atlassian JIRA AWS
Fintech
1 Jahr
2019-01 - 2019-12

Risiko-Abschätzung, Migration Python

Python-Spezialist Python Jupyter PyTest ...
Python-Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

Umstellung der JAVA und R Komponenten/Tools auf Python.

ETL Marktdaten und Bestandsdaten.

Pflege und Optimierung der Deep Learning Modelle. Backtest-Abläufe etablieren. Deployment im Docker-Container.

Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.

Vorhandene Java-Komponenten wurden sämtlich nach Python migriert.
Die besonders kritischen Stellen sind mit NUMBA und C-/Cython umgesetzt. Außerdem kamen parallele Packages zum Einsatz, wie Dask und Apache Spark. Die bisherigen R-Tools vornehmlich für die statistische Beurteilung der Features und der Modelle sind ebenfalls nach Python mit den entsprechenden Packages migriert worden.
Der existierende Python-Deep-Learning-Code wurde adaptiert und optimiert. Hinzu kamen neu-erstellte Backtesting-Abläufe.
Die Bestandteile wurden in Docker-Containern implementiert.

Python Jupyter PyTest NumPy Pandas Matplotlib Flask Dash Plotly NUMBA Dask Spark C Cython OpenCL AVX SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka Kubernetes Docker MS Windows LINUX Git Atlassian JIRA AWS
Fintech
10 Monate
2018-03 - 2018-12

Risiko-Abschätzung, Modell-Variationen

Python / R / Java ? Spezialist Java JDBC Hibernate ...
Python / R / Java ? Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

ETL Marktdaten und Bestandsdaten.
Verarbeitung von zusätzlichen Features, Scraping von Unternehmens-Nachrichten, Prototyp Sentiment Analyse, Rekurrente Netze (RNN, LSTM und GRU). Neuronale Netze für Klassifikation.
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden: Random Forrest, SVM, XGBoost, Clustering, t-SNE, PCA, MDS. Modell Optimierung.

Es wurde eine Umgebung geschaffen, um Modell-Modifikationen schneller zu verifizieren. Die entsprechenden Tools fundierten auf R und Shiny. Die überwiegende Zeit fiel auf das Engineering der Modelle, Parameter-Optimierung und Trainings-Läufe.

Neue Features wurden hinzugefügt und Features konfigurierbar gemacht.
Als Prototyp wurden Sentiment-Informationen für die Assets mit dem NLTK
und einem DL-Netz generiert. Die Schnittstelle für externe ?Abnehmer? bildete eine REST-API. Logging und Dokumentation der Läufe sind automatisiert worden.

Java JDBC Hibernate JSON Jsoup JUnit log4j OpenCL JOCL R RStudio dplyr tidyr DT ggplot2 Shiny Python Jupyter NumPy Pandas Matplotlib SciPy scikit-learn XGBoost NLTK Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka MS Windows LINUX Git Atlassian JIRA AWS
Fintech
1 Jahr 1 Monat
2017-02 - 2018-02

Risiko-Abschätzung, Vertikales Prototyping

Python / R / Java ? Spezialist Java JDBC Hibernate ...
Python / R / Java ? Spezialist

Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate

ETL, Datenmodellierung, Prototypen,
Beschaffung Marktdaten (finnhub.io, investing.com, etc.)
Abzug Bestands-Daten,
Daten-Verdichtung, Feature Engineering, Machine-Learning,
Deep Learning mit Dense-Layern, Regression-Modell,
Statistische Beurteilung und Visualisierung der Modell-Qualität mit R und Shiny.
Vertikales Prototyping, Durchstich

Zunächst wurde eine Datenbank mit Intraday-Befüllung aufgebaut. Der Hauptteil der Arbeit entfiel auf das Feature-Engineering. Da viel Rechenleistung erforderlich war, kam hier Java und OpenCL zur Anwendung.
Dies war die Basis für die weitere Modell-Entwicklung und Optimierung. Es wurden Entwicklungen mit TensorFlow-Java und TensorFlow-Python durchgeführt.
Die Wahl für diese Komponente fiel aber auf Python.
Die Datenanalyse und die Analyse der Deep-Learning Modelle erfolgte mit R. Primäres Ziel dieser Phase war ein vertikaler Prototyp, bei dem Kafka die Data Streams steuerte.

Finnhub investing.com
Java JDBC Hibernate JSON JUnit log4j OpenCL JOCL R RStudio dplyr tidyr DT ggplot2 Shiny Python Jupyter NumPy Pandas Keras TensorFlow HTML CSS MySQL MySQL Workbench Apache Kafka MS Windows LINUX Git Atlassian JIRA AWS
Fintech
2 Jahre 6 Monate
2014-07 - 2016-12

Redesign Risiko-Controlling System

IT Consultant JAVA ORACLE 11g Big Data ...
IT Consultant
FRTB - Fundamental Review of the Trading Book
EBA Stress-Tests

Umstellung auf neue Gesetzeslage BASEL III

Übernahme der Daten vom Front End und den Risk Engines
Übernahme der Markdaten
Extract, Transform, Load (ETL)
Vorhalten der Roh-Daten
Kalkulation der Risiko-Kennzahlen basierend auf statistischen, mathematischen Modellen
Multi-dimensionale Aggregation und Daten-Analyse
Historische Simulation, Monte-Carlo-Simulation, Korrelations-Analysen
Value At Risk, verschiedene Konfidenz-Niveaus, Hedge-Effekte, Marginal, Residual
Stress-Testing, Sensitivitäten, Griechen
Backtesting, Q-Test und weitere Auslieferung an diverse Abnehmer-Systeme (Data Abstraction Layer)


Es waren diverse Schnittstellen für die zentrale Datenhaltung zu konzipieren. Die Daten wurden in einer Datenbank konsolidiert. Die statistische Vorbereitung der Daten erfolgte an mehreren Stellen vornehmlich in der ORACLE Datenbank, in Active-Pivot und in SAS EBI. Sie gelangten jeweils wieder in die Datenbank. Von dort wurden sie statistisch finalisiert und über einen Abstraction Layer (DAL) an verschiedene Abnehmer geliefert. Das waren die internen Systeme inklusive de Microsoft .NET Web-Applikation und dem SAS Reporting. Weitere externe Abnehmer wurden ebenfalls beliefert.
Ein Risiko-Controlling System gehört zu den komplexesten IT-Systemen einer Bank mit täglichen Meldungen an den Vorstand und die Aufsichtsbehörden. Dementsprechend groß ist das Team. Koordination, Realisierung und Validierung der berechneten statistischen Risikozahlen hielten sich die Waage.

JAVA ORACLE 11g Big Data Data Mining Microsoft .NET HTML CSS Javascript R RStudio PCA Dimension-Reduction SVM Quartet FS Active-Pivot SAS Enterprise BI-Server Oracle 12c ORACLE Coherence
Großbank
Frankfurt am Main, London
1 Jahr 6 Monate
2013-01 - 2014-06

Erweiterungen im Liquiditäts-Risiko

IT Consultant JAVA R ORACLE 10g ...
IT Consultant
ANL (FCE, BSL, DTS)
Liquiditäts-Ablauf-Bilanz (LAB),
Liquiditätsfristen-Transformation, Funds Transfer Pricing (FTP)
Liquidity Coverage Ratio (LCR)
Net Stable Funding Ratio (NSFR)
BASEL III

Modellierungen für die Risikomessung
Differenzierung und Simulation der Risikofaktoren
Verbesserung Stress-Testing
Modellierung des Bodensatzes
Modelle für Laufzeitbänder
Modelle unter Einbeziehung historischer Zeitreihen
Modelle auf Basis historischen Ziehungsverhaltens
Haircuts-Berechnung

Aufgrund gesetzlicher Anforderungen war das bisherige Liquiditäts-Risiko-System zu erweitern, das ich in großen Teilen konzipiert hatte. Einhergehend mit einer starken Ausdehnung des Datenhaushaltes bis auf Einzelgeschäfts-Ebene.
In einem Vor-Projekt waren neben den fachlichen statistischen auch die technischen Anforderungen zu untersuchen.
Unter anderem wurden teilweise prototypisch SAP HANA, Sybase IQ, IBM Netezza, ORACLE 11, Quartet FS Active-Pivot und andere betrachtet.
Auf statistisch fachlicher Seite waren entsprechende Szenarien zur Daten-Integration zu abzuarbeiten und Modellierungen voranzutreiben.
Das Risiko-Modell wurde grundlegend ausgeweitet.
Wegen der hohen Hürden hinsichtlich Historie und nachträglichen Auswertbarkeit wurde ein längerer Parallellauf des alten und neuen Systems beschlossen. Verbunden mit großen Validierungs-Aufwänden.
JAVA R ORACLE 10g ORACLE 11g HTML CSS JavaScript Quartet FS Active-Pivot J2EE JBoss IBM WebSphere Maven JSF Spring JPA Hibernate BIRT
Großbank
Frankfurt am Main
1 Jahr
2007-07 - 2008-06

Marktdaten-Abruf Eurex, Reuters, Datastream

Entwickler JAVA C ORACLE
Entwickler

Marktdaten Bereitstellung für Intraday Risk.

Neu-Entwicklung Client für EUREX und EEX in C und JAVA.

Weiterentwicklung und Betreuung der JAVA-Clients für Reuters und DataStream.

Erweiterung Daten-Modell

Ablage der FX- und Equity-Marktdaten in ORACLE-Datenbank.

Eurex Reuters Market Data System Datastream
JAVA C ORACLE
Broker
Frankfurt am Main

Position

Position

Lead-Developer, Data Scientist, Business Analyst, Tester, Projekt-Manager

Kompetenzen

Kompetenzen

Top-Skills

Python R Apache Spark Keras TensorFlow Machine Learning OpenCL Projekt Management Big Data Oracle Datenbankentwickler SQL PL-SQL T-SQL Perl Java J2EE Risikocontrolling Data Scientist Künstliche Intelligenz Data Engineer

Produkte / Standards / Erfahrungen / Methoden

Allgemein

Betriebswirtschaftliche Kenntnisse:

Unternehmensführung, Projektmanagement (GPM / IPMA, SCRUM),
Controlling, Bilanzierung (HGB, IFRS), Buchhaltung, Steuern (KStG, ESt)
Marketing, Recht

 

Finanzwirtschaftliche Kenntnisse:

Risiko Controlling (RC), Risiko Management (RM)
BASEL II/2.5/III, SolvV, Solvency II, CRD IV
Marktrisiko, Derivate Bepreisung, Margin Kalkulation, Marktdaten
Liquiditätsrisiko, Liquiditäts-Controlling, Liquiditäts-Ablauf-Bilanz (LAB),
Net Stable Funding Ratio (NSFR), Liquidity Coverage Ratio (LCR)
Kreditrisiko, Asset-Backed Securities (ABS)
Operationelles Risiko (OpRisk)

 

IT-Skills:
SAS Enterprise BI
Apache Spark
ORACLE, SYBASE, MySQL, Postgres Datenbank-Systeme
Tomcat, J2EE, JBOSS, IBM Websphere

Assembler, Basic, C, C++, Perl, PL/SQL, T-SQL, OpenCL

Java, JDBC, JOCL, JUnit, Jsoup, log4j, Spring, JSF, Hibernate, BIRT, Maven
JavaScript, HTML, CSS

Python, Jupyter, PyCharm, VsCode,
Numpy, Pandas, Sqlite, Matplotlib, NUMBA, Cython,
Flask, Shiny, Dash, Plotly,
scikit-learn, SciPy, XGBoost, Dask, Arrow, PySpark, PyTest,
Keras, TensorFlow, PyTorch, NTLK,
Apache Spark

R, RStudio, dplyr, tidyr, ggplot, TidyVerse, DT

Machine Learning (ML), Deep Learning (DL), Küstliche Intelligenz (KI),
Neuronale Netze (NN, CNN, RNN, LSTM, GRU)
Reinforcement Learning (RL)

Apache Kafka, Kubernetes, Docker

Git, Microsoft Project, Microsoft Office, JIRA, HP Quality Center

Microsoft Windows, Solaris, LINUX
AWS, Azure

Branchen

Branchen

Banken

Finanzdienstleistern

Versicherungen

Logistik

Pharmazeutik

Industrie

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.