Entwicklung eines Copiloten zur Unterstützung des agilen Projektmanagements (Product Owner, SCRUM Master): Der Copilot dient als Assistent und kennt die Vorgaben zur Erstellung von Epics und User Stories und fragt relevante Fragen und entwickelt Epics und User Stories.
· Entwickeln des Chatbot auf GPT-Basis
· Entwickeln und Optimieren des OpenAI Assistant
· Anreicherung des Chatbot mit dem notwendigen Kontext aus JIRA und Confluence und Automatisierung der Anreicherung
· Workshop zur Einführung des Tools
· Testen und Qualitätssicherung
· Durchführen eines Webinar zur Bewerbung des Tools
Entwicklung einer benutzerfreundlichen Streamlit-App zur Dokumentenvalidierung im Immobilienfinanzierungsprozess, die Upload, Prüfung und sichere Verarbeitung zentraler Dokumente unterstützt.
? : Entwicklung einer Streamlit-App, die den Upload und die Verwaltung relevanter Dokumente (z. B. Ausweise, Grundbuch-Einträge, Kontoauszüge) im Finanzierungsprozess vereinfacht.
? : Integration von ChatGPT zur automatisierten Validierung und Überprüfung hochgeladener Dokumente, wodurch die Effizienz und Genauigkeit des Prüfprozesses verbessert wurden.
? : Entwicklung eines umfassenden Datenschutzkonzepts zur Sicherstellung der Einhaltung regulatorischer Anforderungen und zur Gewährleistung der Datensicherheit.
? : Onboarding und Schulung der Mitarbeitenden zur sicheren und effektiven Nutzung der Anwendung.
In meiner Rolle als Data Analyst war ich maßgeblich am Net Promoter Score (NPS)-Projekt beteiligt, um datenbasierte Einblicke in die Kundenzufriedenheit zu gewinnen und das Unternehmen strategisch zu unterstützen. Durch den Einsatz von Natural Language Processing (NLP) und Machine Learning konnte ich wertvolle Erkenntnisse aus Kundenfeedback gewinnen und dazu beitragen, dass datenbasierte Optimierungen identifiziert und priorisiert wurden.
Hauptaufgaben und Erfolge:
? Durchführung detaillierter Sentiment-Analysen, um das Stimmungsbild der Kunden zu erfassen und gezielte Verbesserungsmaßnahmen zu identifizieren.
? Identifikation von Hauptthemen im Kundenfeedback mittels Topic Modeling, um die Kundenerfahrungen tiefgehend zu verstehen und gezielte Optimierungsvorschläge abzuleiten.
? Beginnend mit einer strukturierten Datenorganisation und Voranalyse entwickelte ich ein datenbasiertes Konzept, das relevante KPIs ableitete und diese in interaktive Dashboards integrierte. So wurde eine kontinuierliche Überwachung und datenbasierte Entscheidungsfindung im Management ermöglicht.
? Einsatz moderner Sprachmodelle zur Verbesserung der Analysegenauigkeit und Tiefe der Erkenntnisse.
? Nutzung von Jupyter Notebook zur interaktiven Datenexploration und Visualisierung sowie Databricks für skalierbare Datenverarbeitung und anspruchsvolle Analysen.
? Organisierte Zusammenarbeit und Versionskontrolle durch GitLab und Automatisierung der Analysepipelines, um zuverlässige und reproduzierbare Ergebnisse sicherzustellen.
Im Rahmen eines Projekts zur digitalen Transformation eines kleinen Unternehmens habe ich ein maßgeschneidertes Automatisierungssystem für die Lagerverwaltung entwickelt. Ziel war es, manuelle Prozesse zu eliminieren und die Bestandsführung effizient und fehlerfrei zu gestalten.
Highlights der Implementierung:
? Entwicklung einer intuitiven grafischen Oberfläche mit Swing, die eine einfache Bedienung und schnelle Einarbeitung für Lagerpersonal ermöglicht.
? Funktionen zur präzisen Erfassung von Produktgruppen und Artikeln, einschließlich Hinzufügen, Bearbeiten und Löschen, um die Datenqualität zu verbessern.
? Einführung einer automatisierten Bestandsaufzeichnung und detaillierten Berichte zur Transparenz von Lagerbeständen, die datenbasierte Entscheidungen für das Management unterstützen.
? Implementierung von Suchfunktionen, um Produktinformationen in Echtzeit bereitzustellen und die Lagerabläufe zu beschleunigen.
Dieses Projekt stellte hohe Anforderungen an und sowie an die . Meine Fähigkeit, Geschäftsanforderungen in technische Lösungen zu übersetzen, ermöglichte eine deutliche Effizienzsteigerung im Lager und verbesserte die Datenzugänglichkeit für das Management.
In diesem Projekt entwickelte ich eine robuste, Python-basierte Webanwendung mit Flask und FastAPI zur Automatisierung und Überwachung des Bonusberechnungsprozesses für alle Vertriebskanäle. Der Prozess, der bisher vier Stunden in Anspruch nahm, wurde durch meine Optimierungen deutlich effizienter und zuverlässiger gestaltet.
Hauptaufgaben und Erfolge:
? Implementierung eines Caching-Systems, das die Antwortzeiten der Anwendung und die Effizienz der Bonusberechnung signifikant verbesserte.
? Integration von OAuth via Entra ID, um eine sichere und kontrollierte Anwendung für den Zugriff durch Vertriebsteams zu gewährleisten.
? Aufbau und Verwaltung einer DevOps-Pipeline zur nahtlosen Bereitstellung und Versionierung der Anwendung, inklusive Testing und Monitoring mit pytest und unittest.
? Enger Austausch mit dem Datenteam zur Sicherstellung der optimalen Datenstrukturierung und -verfügbarkeit in Snowflake, was die Genauigkeit und Konsistenz der Bonusberechnungen stärkte.
In diesem Projekt führte ich eine detaillierte Datenanalyse von Kommunikationsaktivitäten und -mustern in Telegram-Chats durch. Mithilfe von Python und spezialisierten Bibliotheken zur Datenverarbeitung und -visualisierung erstellte ich interaktive Dashboards, die datenbasierte Einblicke in das Nutzerverhalten und die Plattform-Interaktionen ermöglichten.
Schwerpunkte der Analyse und Dashboard-Erstellung:
? Darstellung der Nachrichtenhäufigkeit und -verteilung in einem Dashboard, um aktive Nutzungsphasen und Kommunikationsspitzen zu identifizieren.
? Visualisierung von Sende- und Empfangsverhältnissen in einem interaktiven Dashboard, um Interaktionsmuster zwischen Nutzern und Gruppen sichtbar zu machen.
? Erstellung einer Kategorie-Analyse (Text, Bild, Video), die Kommunikationspräferenzen und den Informationsfluss verdeutlicht.
? Analyse und Visualisierung der Textlänge in Dashboards zur Bewertung von Kommunikationsstilen und Interaktionsintensität.
? Demografische Analyse und Dashboard zur Darstellung der Geschlechterverteilung in verschiedenen Gruppen, um spezifische Nutzungsmuster zu identifizieren. Für alle Key Features wurden Visualisierungen erstellt, um die Erkenntnisse aus den Daten effektiv zu vermitteln. Ich habe Python und verschiedene Datenverarbeitungs- und Visualisierungsbibliotheken verwendet, z. B. Pandas, Matplotlib, Seaborn und Plotly.
Entwicklung eines Copiloten zur Unterstützung des agilen Projektmanagements (Product Owner, SCRUM Master): Der Copilot dient als Assistent und kennt die Vorgaben zur Erstellung von Epics und User Stories und fragt relevante Fragen und entwickelt Epics und User Stories.
· Entwickeln des Chatbot auf GPT-Basis
· Entwickeln und Optimieren des OpenAI Assistant
· Anreicherung des Chatbot mit dem notwendigen Kontext aus JIRA und Confluence und Automatisierung der Anreicherung
· Workshop zur Einführung des Tools
· Testen und Qualitätssicherung
· Durchführen eines Webinar zur Bewerbung des Tools
Entwicklung einer benutzerfreundlichen Streamlit-App zur Dokumentenvalidierung im Immobilienfinanzierungsprozess, die Upload, Prüfung und sichere Verarbeitung zentraler Dokumente unterstützt.
? : Entwicklung einer Streamlit-App, die den Upload und die Verwaltung relevanter Dokumente (z. B. Ausweise, Grundbuch-Einträge, Kontoauszüge) im Finanzierungsprozess vereinfacht.
? : Integration von ChatGPT zur automatisierten Validierung und Überprüfung hochgeladener Dokumente, wodurch die Effizienz und Genauigkeit des Prüfprozesses verbessert wurden.
? : Entwicklung eines umfassenden Datenschutzkonzepts zur Sicherstellung der Einhaltung regulatorischer Anforderungen und zur Gewährleistung der Datensicherheit.
? : Onboarding und Schulung der Mitarbeitenden zur sicheren und effektiven Nutzung der Anwendung.
In meiner Rolle als Data Analyst war ich maßgeblich am Net Promoter Score (NPS)-Projekt beteiligt, um datenbasierte Einblicke in die Kundenzufriedenheit zu gewinnen und das Unternehmen strategisch zu unterstützen. Durch den Einsatz von Natural Language Processing (NLP) und Machine Learning konnte ich wertvolle Erkenntnisse aus Kundenfeedback gewinnen und dazu beitragen, dass datenbasierte Optimierungen identifiziert und priorisiert wurden.
Hauptaufgaben und Erfolge:
? Durchführung detaillierter Sentiment-Analysen, um das Stimmungsbild der Kunden zu erfassen und gezielte Verbesserungsmaßnahmen zu identifizieren.
? Identifikation von Hauptthemen im Kundenfeedback mittels Topic Modeling, um die Kundenerfahrungen tiefgehend zu verstehen und gezielte Optimierungsvorschläge abzuleiten.
? Beginnend mit einer strukturierten Datenorganisation und Voranalyse entwickelte ich ein datenbasiertes Konzept, das relevante KPIs ableitete und diese in interaktive Dashboards integrierte. So wurde eine kontinuierliche Überwachung und datenbasierte Entscheidungsfindung im Management ermöglicht.
? Einsatz moderner Sprachmodelle zur Verbesserung der Analysegenauigkeit und Tiefe der Erkenntnisse.
? Nutzung von Jupyter Notebook zur interaktiven Datenexploration und Visualisierung sowie Databricks für skalierbare Datenverarbeitung und anspruchsvolle Analysen.
? Organisierte Zusammenarbeit und Versionskontrolle durch GitLab und Automatisierung der Analysepipelines, um zuverlässige und reproduzierbare Ergebnisse sicherzustellen.
Im Rahmen eines Projekts zur digitalen Transformation eines kleinen Unternehmens habe ich ein maßgeschneidertes Automatisierungssystem für die Lagerverwaltung entwickelt. Ziel war es, manuelle Prozesse zu eliminieren und die Bestandsführung effizient und fehlerfrei zu gestalten.
Highlights der Implementierung:
? Entwicklung einer intuitiven grafischen Oberfläche mit Swing, die eine einfache Bedienung und schnelle Einarbeitung für Lagerpersonal ermöglicht.
? Funktionen zur präzisen Erfassung von Produktgruppen und Artikeln, einschließlich Hinzufügen, Bearbeiten und Löschen, um die Datenqualität zu verbessern.
? Einführung einer automatisierten Bestandsaufzeichnung und detaillierten Berichte zur Transparenz von Lagerbeständen, die datenbasierte Entscheidungen für das Management unterstützen.
? Implementierung von Suchfunktionen, um Produktinformationen in Echtzeit bereitzustellen und die Lagerabläufe zu beschleunigen.
Dieses Projekt stellte hohe Anforderungen an und sowie an die . Meine Fähigkeit, Geschäftsanforderungen in technische Lösungen zu übersetzen, ermöglichte eine deutliche Effizienzsteigerung im Lager und verbesserte die Datenzugänglichkeit für das Management.
In diesem Projekt entwickelte ich eine robuste, Python-basierte Webanwendung mit Flask und FastAPI zur Automatisierung und Überwachung des Bonusberechnungsprozesses für alle Vertriebskanäle. Der Prozess, der bisher vier Stunden in Anspruch nahm, wurde durch meine Optimierungen deutlich effizienter und zuverlässiger gestaltet.
Hauptaufgaben und Erfolge:
? Implementierung eines Caching-Systems, das die Antwortzeiten der Anwendung und die Effizienz der Bonusberechnung signifikant verbesserte.
? Integration von OAuth via Entra ID, um eine sichere und kontrollierte Anwendung für den Zugriff durch Vertriebsteams zu gewährleisten.
? Aufbau und Verwaltung einer DevOps-Pipeline zur nahtlosen Bereitstellung und Versionierung der Anwendung, inklusive Testing und Monitoring mit pytest und unittest.
? Enger Austausch mit dem Datenteam zur Sicherstellung der optimalen Datenstrukturierung und -verfügbarkeit in Snowflake, was die Genauigkeit und Konsistenz der Bonusberechnungen stärkte.
In diesem Projekt führte ich eine detaillierte Datenanalyse von Kommunikationsaktivitäten und -mustern in Telegram-Chats durch. Mithilfe von Python und spezialisierten Bibliotheken zur Datenverarbeitung und -visualisierung erstellte ich interaktive Dashboards, die datenbasierte Einblicke in das Nutzerverhalten und die Plattform-Interaktionen ermöglichten.
Schwerpunkte der Analyse und Dashboard-Erstellung:
? Darstellung der Nachrichtenhäufigkeit und -verteilung in einem Dashboard, um aktive Nutzungsphasen und Kommunikationsspitzen zu identifizieren.
? Visualisierung von Sende- und Empfangsverhältnissen in einem interaktiven Dashboard, um Interaktionsmuster zwischen Nutzern und Gruppen sichtbar zu machen.
? Erstellung einer Kategorie-Analyse (Text, Bild, Video), die Kommunikationspräferenzen und den Informationsfluss verdeutlicht.
? Analyse und Visualisierung der Textlänge in Dashboards zur Bewertung von Kommunikationsstilen und Interaktionsintensität.
? Demografische Analyse und Dashboard zur Darstellung der Geschlechterverteilung in verschiedenen Gruppen, um spezifische Nutzungsmuster zu identifizieren. Für alle Key Features wurden Visualisierungen erstellt, um die Erkenntnisse aus den Daten effektiv zu vermitteln. Ich habe Python und verschiedene Datenverarbeitungs- und Visualisierungsbibliotheken verwendet, z. B. Pandas, Matplotlib, Seaborn und Plotly.