Hauptveranwortlich tätig als Senior Database Administrator zur operativen Betreuung der Dateninfrastruktur des Unternehmens
Bei diesem Projekt beauftragte der Kunde ein Refactoring bzw. eine Portierung eines Alt-Systems (Mongo-Db, JS-basierte Applikationen) auf den Microsoft Tech Stack (MS SQL Server, .Net Blazor, .Net WebAPI)
Im Rahmen des Projektes übernahm ich folgende Aufgaben:
Bei der Implementierung der REST Endpoints konnten bei Preis / PnL / Allocation Ausgaben die Antwortzeit von teilweise über 10 sek pro Aufruf auf unter 1 sek verbessert werden
Preisdaten im Echtzeit-Trading wurden durch Provider wie Bloomberg oder Refinitiv oftmals am Ende eines Tages korrigiert neu geliefert. Dadurch entstanden aus mehreren Gründen (z.b. zeitliche Verschiebungen) unterschiedliche Interpretationen der Preisdaten zwischen Simulationsläufen zu verschiedenen Zeiten (ex-ante, real-time, ex-post)
Kern des Projektes war diese Revisionen für ca. 500 Finanzprodukte zu tracken und zu reduzieren.
Ich habe hierfür eine Event Sourcing Architektur mit Apache Kafka als Messaging Backend und MS SQL Server als permanenten Speicher für die Revisionen implementiert:
- Migration von alten Datenbank/Tabellenstrukturen in ein neues optimiertes Format
- Vollständige Unterstuetzung von Microsoft SQL Server Partitionierung für alle Datentabellen
- Optimierung der Tabellenindizierung
- Reduktion des aktiven Datenvolumens im Betrieb von ~220GB auf ~75GB,
- Reduktion des operativen Backupvolumens von ~1.8TB auf ~400GB täglich
- Erstellung eines stabilen und robusten APIs für Datenanwendungen zum parallelen Lesen und Schreiben von Daten
- Clean-Up von Altlasten, Regressionstests, Erstellung von isolierten Testumgebungen
- Erstellung eines Workflow Utility zum Deployment
- Agile Koordination mit anderen Projekten (Scrum Projektplanung in Sprints) via Atlassian Jira
Das System dient zur Qualitätskontrolle von EOD Preisen für verschiedene Finanzinstrumente. Nach der Berechnung spezifischer Metriken auf eingehende Daten wird der bestmögliche realistische Preis ausgewählt und konsolidiert für interne Marktsimulationen zur Verfügung gestellt.
Die Plattform konsumiert und validiert periodisch Bestandsdaten nach bestimmten Regeln (z.b. man sollte keine Position in ausgelaufenen Commodity Kontrakten haben) und berichtet diese tabellarisch an andere Fachbereiche. Benutzer koennen sich fuer bestimmte Benachrichtigungen registrieren und selbst das System um eigene Abfragen erweitern.
- Uebernahme eines Prototyps, Code Review, Bestandsanalyse
- Konzeption von notwendigen Architektur- und Designanpassungen fuer die Migration von Rich Client auf SOA
- Verwendung eines Actor-Konzepts zur Ausfuehrung der Datenabfragen und Validierungslogik hinter einem ASP.Net REST WebAPI Service
- Anleitung fuer den UI Entwickler
- Projektkoordination mit Atlassian Jira, Confluence und Bamboo
- Durchfuehrung von Testzyklen und Releases
Neben der Standardisierung von Datenbankzugriffen, der Bereitstellung eines robusten oeffentlichen API fuer die Integration mit anderen Anwendungen konnten gegenueber der urspruenglichen Version > 30 Verbesserungen und neue Features erreicht werden.
Integration von 3rd Party Library in den EOD Preis Prozess des Unternehmens.
- Entwicklung des kompletten ETL Frameworks zur Extraktion von Daten, Uebergabe an black-box Applikation und Rueckfuehrung in den Datenstamm
- Duplikat- und Revisions-Pruefung fuer zurueckgegebene Daten
- Enge Zusammenarbeit mit Entwickler bei der Umsetzung seiner Interface Anforderungen in einem robusten ETL Prozess
- Durchfuehrung von Testzyklen und Datenanalysen, Regressionstests
- Betreuung des operativen Betriebes seit 2016
Entwicklung eines Data Warehouse / ODS zur Konsolidierung von Transaktionen (Trades & Orders) fuer Finanzinstrumente
- Erstellung eines bitemporalen 6NF-Datenmodells zur vollstaendigen Historisierung von Transaktionsdaten
- Datenmodelle sind vorwaerts- und rueckwaerts-kompatibel, neue Felder koennen einfach hinzugefuegt werden
- Implementierung des kompletten ETL Prozess (periodisch, vollstaendig oder differentiell) in SQL
- in Betrieb seit Juni 2016
Microsoft MCP / MCTS / MCDBA / MCITP Zertifikate bis 2011
Data Camp Python / Data Science Online Kurse
Als unabhängiger Dienstleister für IT habe ich je nach Projekt verschiedene Positionen inne. Von Leitung eines agilen Teams bis hin zu rein technischnen Spezialistenrollen oder beratenden Tätigkeiten.
In der Vergangenheit:
- Software- und Daten Architekt für Datenverarbeitungsprozesse und Systemablösungen
- Ressort / Projekt / Team Leitung für geschäftskritische Systeme
- Datenbankadministrator / DevOps Koordinator mit Gesamtdatenvolumen von >100TB
- Software Entwickler Python, C#/.Net zur Entwicklung von Datenschnittstellen und Verarbeitungsprozessen
- Datenanalyst / Datenqualitäts-Tester
- Mentor / Coach für Agile Prozesse und Datenbank-Know How
Oft sind es auch mehrere Rollen gleichzeitig und/oder anteilig.
Es zählt, was gebraucht wird und meinem Kunden hilft, dessen Projekt effizient durchzuführen.
Hauptveranwortlich tätig als Senior Database Administrator zur operativen Betreuung der Dateninfrastruktur des Unternehmens
Bei diesem Projekt beauftragte der Kunde ein Refactoring bzw. eine Portierung eines Alt-Systems (Mongo-Db, JS-basierte Applikationen) auf den Microsoft Tech Stack (MS SQL Server, .Net Blazor, .Net WebAPI)
Im Rahmen des Projektes übernahm ich folgende Aufgaben:
Bei der Implementierung der REST Endpoints konnten bei Preis / PnL / Allocation Ausgaben die Antwortzeit von teilweise über 10 sek pro Aufruf auf unter 1 sek verbessert werden
Preisdaten im Echtzeit-Trading wurden durch Provider wie Bloomberg oder Refinitiv oftmals am Ende eines Tages korrigiert neu geliefert. Dadurch entstanden aus mehreren Gründen (z.b. zeitliche Verschiebungen) unterschiedliche Interpretationen der Preisdaten zwischen Simulationsläufen zu verschiedenen Zeiten (ex-ante, real-time, ex-post)
Kern des Projektes war diese Revisionen für ca. 500 Finanzprodukte zu tracken und zu reduzieren.
Ich habe hierfür eine Event Sourcing Architektur mit Apache Kafka als Messaging Backend und MS SQL Server als permanenten Speicher für die Revisionen implementiert:
- Migration von alten Datenbank/Tabellenstrukturen in ein neues optimiertes Format
- Vollständige Unterstuetzung von Microsoft SQL Server Partitionierung für alle Datentabellen
- Optimierung der Tabellenindizierung
- Reduktion des aktiven Datenvolumens im Betrieb von ~220GB auf ~75GB,
- Reduktion des operativen Backupvolumens von ~1.8TB auf ~400GB täglich
- Erstellung eines stabilen und robusten APIs für Datenanwendungen zum parallelen Lesen und Schreiben von Daten
- Clean-Up von Altlasten, Regressionstests, Erstellung von isolierten Testumgebungen
- Erstellung eines Workflow Utility zum Deployment
- Agile Koordination mit anderen Projekten (Scrum Projektplanung in Sprints) via Atlassian Jira
Das System dient zur Qualitätskontrolle von EOD Preisen für verschiedene Finanzinstrumente. Nach der Berechnung spezifischer Metriken auf eingehende Daten wird der bestmögliche realistische Preis ausgewählt und konsolidiert für interne Marktsimulationen zur Verfügung gestellt.
Die Plattform konsumiert und validiert periodisch Bestandsdaten nach bestimmten Regeln (z.b. man sollte keine Position in ausgelaufenen Commodity Kontrakten haben) und berichtet diese tabellarisch an andere Fachbereiche. Benutzer koennen sich fuer bestimmte Benachrichtigungen registrieren und selbst das System um eigene Abfragen erweitern.
- Uebernahme eines Prototyps, Code Review, Bestandsanalyse
- Konzeption von notwendigen Architektur- und Designanpassungen fuer die Migration von Rich Client auf SOA
- Verwendung eines Actor-Konzepts zur Ausfuehrung der Datenabfragen und Validierungslogik hinter einem ASP.Net REST WebAPI Service
- Anleitung fuer den UI Entwickler
- Projektkoordination mit Atlassian Jira, Confluence und Bamboo
- Durchfuehrung von Testzyklen und Releases
Neben der Standardisierung von Datenbankzugriffen, der Bereitstellung eines robusten oeffentlichen API fuer die Integration mit anderen Anwendungen konnten gegenueber der urspruenglichen Version > 30 Verbesserungen und neue Features erreicht werden.
Integration von 3rd Party Library in den EOD Preis Prozess des Unternehmens.
- Entwicklung des kompletten ETL Frameworks zur Extraktion von Daten, Uebergabe an black-box Applikation und Rueckfuehrung in den Datenstamm
- Duplikat- und Revisions-Pruefung fuer zurueckgegebene Daten
- Enge Zusammenarbeit mit Entwickler bei der Umsetzung seiner Interface Anforderungen in einem robusten ETL Prozess
- Durchfuehrung von Testzyklen und Datenanalysen, Regressionstests
- Betreuung des operativen Betriebes seit 2016
Entwicklung eines Data Warehouse / ODS zur Konsolidierung von Transaktionen (Trades & Orders) fuer Finanzinstrumente
- Erstellung eines bitemporalen 6NF-Datenmodells zur vollstaendigen Historisierung von Transaktionsdaten
- Datenmodelle sind vorwaerts- und rueckwaerts-kompatibel, neue Felder koennen einfach hinzugefuegt werden
- Implementierung des kompletten ETL Prozess (periodisch, vollstaendig oder differentiell) in SQL
- in Betrieb seit Juni 2016
Microsoft MCP / MCTS / MCDBA / MCITP Zertifikate bis 2011
Data Camp Python / Data Science Online Kurse
Als unabhängiger Dienstleister für IT habe ich je nach Projekt verschiedene Positionen inne. Von Leitung eines agilen Teams bis hin zu rein technischnen Spezialistenrollen oder beratenden Tätigkeiten.
In der Vergangenheit:
- Software- und Daten Architekt für Datenverarbeitungsprozesse und Systemablösungen
- Ressort / Projekt / Team Leitung für geschäftskritische Systeme
- Datenbankadministrator / DevOps Koordinator mit Gesamtdatenvolumen von >100TB
- Software Entwickler Python, C#/.Net zur Entwicklung von Datenschnittstellen und Verarbeitungsprozessen
- Datenanalyst / Datenqualitäts-Tester
- Mentor / Coach für Agile Prozesse und Datenbank-Know How
Oft sind es auch mehrere Rollen gleichzeitig und/oder anteilig.
Es zählt, was gebraucht wird und meinem Kunden hilft, dessen Projekt effizient durchzuführen.
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.