Unternehmen, die nach ISO-9001 (Qualitätsmanagement) zertifiziert sind, definieren ihre Unternehmensziele und die ihrer Abteilungen in Form von Kennzahlen. Auf deren Verbesserung wird über die Monate hinweg ständig geachtet. Ziel war es nun, für eine Organisation, die selbst Management-Zertifizierungen in tausenden deutscher Unternehmen durchführt, ein eigenes Management-Reporting auf Kennzahlenbasis umzusetzen. Die Berechnung jeder der 50 Kennzahlen kann pro Abteilung variieren. Parallel wurde ein großes Upgrade des ERP-Systems durchgeführt, sodass sich auch in der Datenquelle fast alle Felder geändert haben.
PROJEKTVERANTWORTUNG
Beratung des Reporting-Teams, Analyse, Umsetzung, Schulungen
Für ein IT-Infrastrukturteam, das viele tausend Anwender betreut, wurde ein Data Warehouse aufgebaut, mit dem Transparenz über alle im Konzern vorhandenen Geräte geschaffen wurde. Mit den historisierten Active-Directory-Daten als Basis wurden weitere Informationen zu den Rechnern gesammelt und ausgewertet. Dadurch können nun Fragen beantwortet werden wie: „Wie schnell konnten wir Windows-7-Rechner upgraden?“, „Welche Fachabteilung erzeugt welche Azure-Kosten bei uns, und wie lassen sich diese optimieren?“, „Wie entwickelt sich die Auslastung unserer Mitarbeiter?“, „Wie entwickelt sich die Patch-Rate von Windows Update Services (WSUS)?“, „Bei welchen Rechnern fehlen mehr als drei Windows-Updates?“, „Wurden in SCCM bereits alle Rechner registriert, die in Active Directory vorhanden sind?“
PROJEKTVERANTWORTUNG
Beratung und Umsetzung
Das bestehende „Globale Data Warehouse“ der World Vision Deutschland e.V. auf Basis eines OLAP-Cubes war an einen Punkt gekommen, an dem es für die IT-Abteilung nicht mehr erweiterbar war. Da die Fachabteilungen jedoch ständig neue Anforderungen an Daten haben, musste das bestehende System durch flexiblere Strategien mit neuen Technologien ersetzt werden. Es wurde ein agiles Reporting-Konzept ausgearbeitet und umgesetzt, mit dem die IT-Abteilung nun flexible Anforderungen in kürzester Zeit umsetzen kann. Die Funktionalitäten des Bestandsystems wurden dabei nach und nach anhand frischer Anforderungen neu implementiert.
PROJEKTVERANTWORTUNG
Architektur, Beratung, Anforderungsanalyse, Umsetzung
Bei einem mittelständischen Hersteller von Premium-Tee wurde kurzfristig jemand benötigt, der sowohl die ITAbteilung leitet, als auch das Controlling für die gesamte Firma übernimmt, und dabei Business-Intelligence- Projekte umsetzt. Für das Controlling wurde zunächst eine neue Datenauswertungs Strategie eingeführt, und diese auch im Alltag verwendet. QlikView wurde durch Microsoft-Technologien abgelöst. Geschäftsleitung und Führungskräfte wurden bei Fragen rund um Geschäftszahlen, Planung und Profitabilität unterstützt. Als Leiter der IT (bis Mai 2019) wurden Dienstleister koordiniert, automatisierte Schnittstellen zu Kunden aufgebaut und in verschiedenen Softwareprojekten das ERP-System erweitert.
PROJEKTVERANTWORTUNG
Leitung der Abteilung für IT, Business Intelligence und Controlling
Der Kunde wollte in die Lage versetzt werden, sein Geschäft anhand flexibler Datenauswertungen zu steuern. Nach dem Projekt waren die Fachabteilungen in der Lage, selbst ihre Abverkäufe und Umsätze pro Kunde, Kundengruppe, Warengruppe, Artikel und Kostenstelle ohne technische Kenntnisse auszuwerten. In weniger als 10 Personentagen inklusive Analyse wurde ein Data Warehouse mit Reporting auf die Beine gestellt, mit dem der Kunde nun seine Verkäufe gut steuern kann.
PROJEKTVERANTWORTUNG
Analyse, Beratung und Umsetzung
Ein Pharma-Hersteller hatte nach Ausscheiden eines Mitarbeiters keine Übersicht mehr über die Architektur und Implementierung seines eigenen Reportings. Aufgabe war es, die bestehende Architektur zu analysieren, zu dokumentieren, und Fehler in Reports zu beheben.
PROJEKTVERANTWORTUNG
Dokumentation und Fehlerbehebung
Für den Marktführer im Bereich Mystery Shopping wurde eine Datenanalyse-Software gebaut, die von vielen großen Automarken eingesetzt wird. Über tausende realer Testeinkäufe werden Daten in Fragebögen gesammelt, auf deren Basis Konzerne die Zufriedenheit ihrer Kunden an verschiedenen Standorten messen, und somit die Filialen besser steuern können. Die Aufgabe umfasste sowohl die Konzeption, als auch die Umsetzung sowie die individuelle Anpassung pro Endkunde. Es wurde ein Data Warehouse aufgebaut, auf das die Benutzer per Web-Technologie zugegriffen haben. Eine Vielzahl von Dashboards sowie PDF-Berichten in bis zu 80 Sprachen wurden umgesetzt.
PROJEKTVERANTWORTUNG
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, Datenmodellierung
Eine der weltweit größten Nichtregierungsorganisationen stellt mit dem Projekt „Reporting Revolution“ alle Datenauswertungen auf Power BI um. Ziel war es, für den Kunden dafür eine Strategie auszuarbeiten, das Business-Intelligence-Team sowie die Endanwender zu schulen, und das europaweite Rollout zu betreuen. Es wurden Datenmodelle für verschiedene Teile der Organisation entwickelt. Dashboards, Reports sowie automatisierte Excel-Berichte wurden auf Basis dieser Datenmodelle gebaut, und an die Fachabteilungen verteilt. Workshops und Schulungen mit Fachabteilungen wurden durchgeführt. Best Practices für die Report-Erstellung und -Verteilung wurden ausgearbeitet.
PROJEKTVERANTWORTUNG
Beratung, Schulung, Umsetzung
Für einen Großkonzern wurde ein Produkt entwickelt, mit dem der Programmcode von Maschinen- und Robotersteuerungen qualitativ auswertbar gemacht wird. Die Ingenieure bekommen dadurch Empfehlungen, an welchen Stellen sie nacharbeiten müssen, um nachhaltig gute Qualität zu liefern. Ganze Teams und externe Dienstleister werden somit transparent, und können nach objektiven Kriterien bewertet werden. Der Konzern wird dieses Produkt an seine eigenen Kunden verkaufen.
PROJEKTVERANTWORTUNG
Softwareentwicklung
Ein führender Hersteller von Automatisierungstechnik und Antrieben hat eine Entwicklungsumgebung für Maschinen-Code, die weltweit von mehreren tausend Maschinenbauern eingesetzt wird. Ziel war es, dafür ein Cloud-Auswertungsportal aufzubauen, mit dem Entwickler die Code-Qualität ihrer selbst entwickelten Software-Komponenten im Detail begutachten und verbessern können. Historische Daten werden in einem Data Warehouse gesammelt, und in Form von Dashboards per Trend-Analyse und visueller Data Exploration den Entwicklern sowie deren Managern zugänglich gemacht.
Projektverantwortung
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, Datenmodellierung
Ein Wasserwerk mit einem jährlichen Fördervolumen von über 10 Millionen Kubikmetern Trinkwasser möchte eine visuelle Echtzeit-Überwachung seiner Pumpenanlagen. Die Pumpen bringen das Wasser vom Grundwasser aus bis an die Oberfläche (Brunnen). Es gibt ca. 150 verschiedene Signale, die von verschiedenen Sensoren in Echtzeit erfasst werden. Diese Signale sollten in Computer-lesbare Daten umgewandelt werden. Auf einem visuellen Leitsystem (Echtzeit-Dashboard) sollte schließlich immer der aktuelle Stand der Signale, sowie daraus berechnete Werte angezeigt werden. Zudem sollten visuelle Alarme sowie SMS- und Telefonbenachrichtigungen eingebaut werden.
Projektverantwortung:
Technische Begleitung während der gesamten Projektlaufzeit
Ein führender Finanzdienstleister hat viele verschiedene Datenquellen, die jeweils einen unterschiedlichen Teilbereich des Tagesgeschäfts abdecken. Ziel war es, all diese Datenquellen in einem System so zu verbinden, dass ein übergreifendes Reporting für Risiko- und Kundenanalyse ermöglicht wird. Der Finanzdienstleister generiert durch diese Analysen nun neues Geschäft im Milliardenbereich.
Systemumgebung:
Es wurden mit C# sowie SSIS Export-Programme für die Quelldatenbanken geschrieben, die die Daten aus verschiedensten Formaten in eine MS-SQL-Server-Datenbank überführen. Diese Datenbank diente dabei als Data Warehouse. Dort wurden die Daten über T-SQL und SSIS so aufbereitet, dass sie eine einheitliche Struktur haben. Schließlich wurden sie in einen „Cube“ überführt, der die Daten in Microsoft Analysis Services (SSAS) so indiziert bereit hält, dass er zur Laufzeit Aggregationen in Sekundenbruchteilen berechnen und dem Nutzer anzeigen kann. Fest vorgegebene Reports wurden über Microsoft Reporting Services (SSRS) implementiert. Zudem wurde ein Frontend in ASP.NET / C# mit Einbindung von AJAX Controls umgesetzt. Ad-hoc-Reporting funktioniert über Microsoft PowerView sowie Excel.
Projektverantwortung:
Implementierung, Projektmanagement, Leitung, Analyse sowie Key Account Management.
Im Rahmen einer der größten medizinischen Studien Europas wurden Proben von Patienten eingefroren. Damit die medizinische Forschung (z.B. von Krebs, Diabetes, Herz- Kreislauf) von diesen Proben profitieren kann, wurde ein Data Warehouse umgesetzt, das die Schnittstelle zu den Forschern bildet. Alle Daten über die Proben sind dort auswertbar. Es wurden zudem Dashboards gestaltet, die die Lagerungsbedingungen der einzelnen Proben aufzeigen, und das Lagermanagement durch Visualisierungen vereinfachen.
Systemumgebung
Es wurde mit SQL Server das Data Warehouse modelliert, und per Stored Procedures (T-SQL) mit SQL Agent Jobs befüllt. Alle Dashboards wurden mit Tableau erstellt. Das Data Warehouse wurde in ein LIMS (Labor-Informations- und Management-System) integriert.
Projektverantwortung
Implementierung, Projektmanagement, Leitung, Analyse, Durchführung von Workshops
Für eine weltweit tätige Gastronomiekette wurde ein System erweitert, das als zentrale Steuerungs- und Auswertungsplattform für das Unternehmen eingesetzt wird. Es beinhaltet ein Web-Portal zur Erfassung von Daten wie Budgets, Personalkosten sowie Zeiterfassung. Darüber hinaus werden aus verschiedenen Systemen, wie Kassen und SAP, Daten zur Auswertung importiert. Eine Vielzahl vordefinierter Reports mit stündlich aktualisierten Daten ermöglicht den Controllern, Filialleitern und Betriebsleitern eine effiziente Steuerung ihres Geschäfts. Darüber hinaus wurde Adhoc-Reporting für die interaktive visuelle Analyse geschaffen, und global eingeführt. Für das Adhoc-Reporting wurden für weltweite Mitarbeiter Schulungen durchgeführt.
Systemumgebung:
Das Webportal wurde auf .NET-Basis mit C#, ASP.NET sowie Javascript/JQuery implementiert. Als Datenbank wurde SQL Server 2008 R2 eingesetzt, allerdings mittlerweile durch SQL Server 2014 auf Microsoft Azure (Cloud) abgelöst. SQL Server Reporting Services (SSRS) greift per MDX auf die Daten im SQL Server Analysis Services (SSAS)-Cube zu, in dem die analytische Logik definiert ist. Adhoc-Reporting wurde auf Basis von PowerView mit der Microsoft PowerPivot Gallery in Sharepoint umgesetzt.
Projektverantwortung:
Fachliche Unterstützung, Teamleitung, Präsentationen, Durchführung von Workshops und Schulungen
Neukunden standen vor der Herausforderung, dass ihre Unternehmenskennzahlen auf viele Quellen (oder Excel-Dateien) verteilt sind. Darüber hinaus musste für jeden Report manuelle Arbeit verrichtet werden, um anschließend Zahlen meist in Excel anzuschauen. Ziel der Workshops war es, zusammen mit Kunden ihre Zahlen so aufzubereiten, dass sie durch Visualisierungen neue Erkenntnisse über ihr eigenes Business gewinnen. Es wurden interaktive Dashboards erstellt, die Zahlen wurden analysiert, und anschließend dem jeweiligen Management präsentiert. Darüber hinaus wurden die Kunden bezüglich der Automatisierung ihres Reporting-Workflows individuell beraten.
Systemumgebung
Die beim Kunden vorhandenen Systeme (z.B. SQL Server, Oracle, Exasol) wurden an Tableau angebunden. Für das Verknüpfen von Daten wurden während des Workshops Lyza und SQL verwendet.
Projektverantwortung:
Leitung und Durchführung der Workshops, Erstellung der Dashboards, Schulung und Beratung der Kunden
Da eine bestehende Access-Applikation den Anforderungen an Sicherheit, Compliance und Wartbarkeit nicht mehr gewachsen war, wurde sie mit State-of-the-Art-Technologien neu implementiert. Aufgabe war die Verwaltung aller Personal-Stammdaten, Zeiterfassungen sowie Zielen. Darüber hinaus wurden verschiedene Reports erstellt, die Human Resources als Grundlage für ihre Arbeit dienen. Dafür musste die bestehende Software auf alle Features hin untersucht, verbessert und neu umgesetzt werden.
Systemumgebung:
Die ehemalige Software auf MS-Access-Basis wurde untersucht, und mit C#, ASP.NET MVC sowie SQL Server (Entity Framework) neu implementiert. Reports basieren nun auf Logik in T-SQL.
Projektverantwortung:
Teamleitung, Anforderungsanalyse, Implementierung der Reporting-Komponenten, Durchführung von Workshops
Bei einem der größten Finanzdienstleister existierte im Kreditgeschäft eine Vielzahl von Data Warehouses. Deren Daten hatten sich zu einem großen Teil überschnitten, was zu mehrfach redundanter Datenhaltung im Terabyte-Bereich und Kostendruck führte. Zudem gab es neue regulatorische Anforderungen (Basel BCBS 239), die sauberes Datenmanagement erfordern. Ziel des Projekts war es, eine Architektur zu schaffen, in der alle Daten nur noch ein einziges Mal vorgehalten werden. Die Fachbereichs-spezifischen Verknüpfungslogiken sollte zur Laufzeit vom „Analytical Layer“ übernommen werden. Jede komplexe Abfrage sollte innerhalb weniger Sekunden Ergebnisse liefern. Zudem sollte die Architektur bis zu mehreren hundert Terabyte skalierbar sein.
Systemumgebung
Einige Rohdaten lagen bereits in Apache Hadoop (HDFS mit HiveDB) vor. Mit dem Microsoft Analytical Platform System (APS, ehemals PDW, heute SQL Data Warehouse) wurde auf Basis von SQL Server 2014 ein Mechanismus geschaffen, der zur Laufzeit die in SQL Server vorliegenden Daten mit denen aus Hadoop verknüpft. Alle Abfragen auf Hadoop waren somit einheitlich über T-SQL möglich. Microsoft Polybase wurde für die Verknüpfung und das Caching eingesetzt. In Kombination mit Clustered Columnstore Indices (spaltenorientierten Tabellen) wurde der Speicherplatz der restlichen Daten um das 10-fache komprimiert. ETL-Strecken wurden mit SSIS implementiert. Der Proof of Concept war erfolgreich – Antwortzeiten lagen ohne explizite Performance-Optimierung im sehr guten Bereich.
Projektverantwortung:
Leitung, Implementierung, Koordination und Präsentationen
Für einen führenden Finanzdienstleister wurde eine individuelle Web-Applikation entwickelt. Es ging um ein System, in welchem Vertriebsmitarbeiter Informationen über lokale, regionale und globale Bestands- oder Neukunden im mehrstelligen Milliardenbereich erfassen. Hierdurch hat der Mitarbeiter jederzeit die Möglichkeit, sich einen Überblick zu laufenden Geschäfte mit den jeweiligen Kunden zu machen. Des Weiteren bietet die Applikation umfangreiche Reporting-Mechanismen, welche dem Management tagesaktuell Informationen über laufende oder mögliche Geschäftsbeziehungen zur Verfügung stellt.
Projektverantwortung:
Analyse der fachlichen Anforderungen, Beratung der Kunden, Architektur des Datenbankschemas sowie Implementierung von Features in der Legacy-Software
Ein führender Automobilhersteller möchte über alle Fehler in den von ihm verkauften Autos schnellstmöglich informiert sein. Die einzig vorhandenen Daten waren tausende formlose Mitschriften pro Tag aus dem Reklamations-Callcenter des Herstellers in verschiedenen Sprachen. Darauf basierend wurde eine Software gebaut, die all diese Texte auf eine Hierarchie (Ontologie) mit Autoteilen abbildet. Darüber wurde eine semantische Suche implementiert, die bei Suche nach einem Überbegriff auch alle in der Hierarchie darunterliegenden Autoteile aufgefunden hat (z.B. „ABS“ bei Eingabe des Suchbegriffs „Bremse“). Schließlich wurde ein Frühwarnsystem geschaffen, das automatisch meldet, welche Bauteile oder Bauteilkategorien aktuell deutlich häufiger erwähnt wurden als sonst.
Systemumgebung:
Die Basis der Anwendung bildete das .NET-Framework 4.0. Die Entwicklung erfolgte unter Visual Studio 2010 in der Programmiersprache C#. Nach dem Prinzip „Software as a Service (SaaS)“ gab es mehrere in sich abgeschlossene WCF-Dienste, die über SOAP und REST miteinander kommunizierten. Linguistisches und ontologisches Wissen, das für die Zuordnung der Produktnamen benötigt wurde, war in der No-SQL-Datenbank „Mongo DB“ abgespeichert. Die aus den Texten extrahierten Informationen wurden mit Hilfe von Lucene .NET so abgespeichert, dass sie auf semantische Volltextsuche und die Bereitstellung der benötigten Trend-Statistiken optimiert waren. Für das Frontend kam Microsoft Silverlight zum Einsatz. Die Qualität der Software wurde über mehrere tausend Unit-Tests mit NUnit sowie Continuous Integration über Cruise Control sichergestellt.
Projektverantwortung:
Konzeption und Implementierung der mehrsprachigen Erkennung von Autoteilen und Abbilden auf die Ontologie. Konzeption und Implementierung der semantischen Suche im Team. Konzeption und Spezifikation der Trenderkennungs-Algorithmen. Erstellung von Unit-Tests und Spezifikation von Integrationstests.
Zusammen mit einer Forschungsgruppe einer renommierten Schweizer Universität wurde für einen weltweit bekannten Messeveranstalter eine Studie durchgeführt. Ziel war es, den Nutzen einer automatischen Wettbewerbsanalyse mit Einbezug von Social Media mit der Beauftragung einer Medienagentur zu vergleichen.
Dazu wurde erst untersucht, welche Social-Media-Inhalte für die Wettbewerbsbeobachtung wie genutzt werden können. Schließlich wurde ein Monitoring-System für diese Inhalte (ca. 30.000 Dokumente pro Tag) implementiert und mit dieser Software die Studie durchgeführt. Es wurden verschiedene Visualisierungs- und Aggregationsmöglichkeiten der Inhalte sowie deren Nutzen systematisch untersucht, und dem Messeveranstalter präsentiert.
Systemumgebung:
Entwickelt wurde die Anwendung mit dem .NET-Framework 4.0 unter Visual Studio 2010. Ein selbst entwickelter „Crawler“ kam zum Einsatz, der Dateien aus dem Internet lokal abspeichert und verarbeitet. Der Crawler selbst bestand aus einer Vielzahl von WCF Services, die über Microsoft Message Queuing (MSMQ) miteinander interagierten. Es wurden MS SQL Server-Datenbanken eingesetzt, auf die der C#-Code über NHibernate zugegriffen hat. Als Frontend wurde Microsoft Silverlight eingesetzt.
Projektverantwortung:
Leitung des Forschungsprojektes und Koordination des Teams. Architektur der benutzten Software
WEITERE PROJEKTE - AUSZÜGE
Anzeige thematisch ähnlicher Dokumente
Branche: Medienbranche
Aufgaben:
Für einen führenden Zeitungsverlag wurde auf dessen Internetportal ein Bereich eingerichtet, der zu einem gegebenen Artikel weitere für den Benutzer relevanten Artikel, die thematische Ähnlichkeit haben, anzeigt. Dafür wurde ein Framework zur Verarbeitung menschlicher Sprache unter .NET programmiert, und ein Algorithmus für die Bestimmung von Dokumentenähnlichkeiten spezifiziert.
Effiziente Visualisierung des Inhaltes großer Dokumentmengen
Branche: Marktbeobachtung / Medienbranche
Aufgaben:
Ziel war es, dem Benutzer den Inhalt großer Dokumentmengen (z.B. alle Inhalte aller Zeitungen in Deutschland) minutenaktuell so zu präsentieren, dass er in kürzester Zeit einen Überblick darüber bekommt, was gerade wichtig ist. Es wurden Algorithmen implementiert, die die Dokumente in Sekundenbruchteilen nach Themen sortieren und jeweils eine Zusammenfassung dieser Themen dem Nutzer in verschiedenen Visualisierungen anzeigen. Somit konnte der Nutzer durch jede beliebige Datenmenge effizient navigieren, ohne die Dokumente lesen zu müssen.
Web-Applikation mit Reporting zur Unterstützung der Betriebsabläufe
Branche: Finanzdienstleister
Aufgaben:
Für einen führenden Finanzdienstleister wurde mit C#, ASP.NET und MS SQL Server eine Webapplikation entwickelt, die komplexe Betriebsabläufe des Konzerns unterstützt und auswertbar macht. Die Herausforderung bestand darin, jeder der ca. 50 Benutzergruppen eine unterschiedliche Sicht auf die Daten und die Web-Oberfläche zu geben. Hunderte Reports wurden mit Microsoft Reporting Services (SSRS) implementiert. Die Software hat mehrere tausend Nutzer und wird weltweit eingesetzt.
Fachliche Schwerpunkte
Technologische Schwerpunkte
Kenntnisse
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.