Data Science & Business Intelligence
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 10437 Berlin
- Europa
- de | en | es
- 09.06.2021
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
4/2021 – offen
Tätigkeitsbeschreibung
Die Endor AG stellt hochwertiges Rennspiel-Equipment für Spielekonsolen und PCs her. Das Unternehmen mit Sitz in Landshut, Bayern vertreibt seine Produkte weltweit. Ich war im Rahmen dieses Projekts als Teil des Controlling-/BI-Teams tätig und habe die internen Mitarbeiter bei ihren Aufgaben unterstützt und beraten. Für das Unternehmen wurde von Grund auf ein neues Data Vault Warehouse gebaut, um eine stabile Grundlage für das Reporting und die Anwendung von Machine Learning Algorithmen zu schaffen. Da während der Projektlaufzeit etliche Softwaresysteme bei der Endor AG umgestellt wurden, war ein besonderes Augenmerk auf die Flexibilität der neuen BI Landschaft nötig, um neue Systeme schnell und unkompliziert in das Berichtswesen integrieren zu können.
Meine Tätigkeit umfasste die Anbindung verschiedener APIs und proprietärer Systeme in die BI Landschaft. Hierfür wurden Daten-Pipelines in Apache Airflow genutzt. Ich habe das Design des Data Warehouse verantwortet und die angebundenen Daten in das neue Datenschema integriert. Im Austausch mit den verschiedenen Fachabteilungen habe ich die Anforderungen an das Reporting und über die Möglichkeit für den Einsatz verschiedener BI Tools und von Machine Learning beraten. Die Implementierung von neuen Reports und Machine Learning Algorithmen gehörten dabei ebenfalls zu meinen Aufgaben
Big Data, Data Science, Data Warehousing, DevOps, Maschinelles Lernen, Microsoft Azure, Power Bi, Python
10/2020 – 4/2021
Tätigkeitsbeschreibung
Die Otto Gruppe ist ein Handels- und Dienstleistungsunternehmen mit Sitz in Hamburg. Im Rahmen dieses Projekts war ich als Teil eines Data Science Teams tätig, das für Online Marketing zuständig ist und unter anderem Google Adwords und Bing Adwords Kampagnen durch Datengetriebene Algorithmen steuert. Die bisherigen On-Premises Lösungen, mit denen hier gearbeitet wurde, sollten durch eine neue Infrastruktur in der Google Cloud Platform abgelöst werden.
Meine Tätigkeit umfasste das erstellen von Resourcen und die Steuerung der Nutzerrechte in der Google Cloud Platform über Terraform, den Bau von Datenpipelines in Apache Airflow und das erstellen von Microservices in Docker Containern. Mit Hilfe dieser Technologien habe ich für das dortige Data Science Team Daten von Google und Bing APIs abgerufen und in das Data Vault Warehouse überführt
Big Data, Business Intelligence (BI), Data Warehousing, DevOps, Python
8/2019 – 3/2020
Tätigkeitsbeschreibung
Das Unternehmen Urban Mobility International (UMI) ist eine hundertprozentige Tochterfirma von Volkswagen und betreibt den rein elektrischen Car Sharing Service WeShare. Die Firma nahm den Betrieb im Sommer 2019 in Berlin auf und weitet den Dienst nun auf immer mehr Städte in ganz Europa aus. Durch den ausschließlichen Einsatz von Elektrofahrzeugen und die dadurch erhöhten Wartungszeiten entstehen zusätzliche Herausforderungen beim Betrieb der Fahrzeugflotte. Diese spiegelten sich auch in den fachlichen Anforderungen in der Data Abteilung wider.
Als Teil des Data Teams gehörte es zu meinen Aufgaben das Data Warehouse Design zu entwerfen, Datenpipelines zu konstruieren und für die verschiedenen Fachabteilungen im Unternehmen statistische Auswertungen in Form von Dashboards oder Ad Hoc Analysen zu bauen, um diese in ihrer Arbeit zu unterstützen. Dabei habe ich in enger Zusammenarbeit mit den jeweiligen Stakeholdern die fachlichen Anforderungen besprochen und das Datenbankdesign entsprechend zugeschnitten, um effiziente Auswertungen zu gewährleisten.
Neben diesen klassischen Datenauswertungen gehörte zu meinem Aufgabenfeld auch die Entwicklung von Algorithmen für operative Zwecke und die Programmierung von Simulations- und Vorhersagemodellen. So wurden unter Einsatz von Machine Learning und Optimierungsverfahren Modelle für die Vorhersage von Nachfrage und Ausfallzeiten entwickelt und darauf aufbauend Algorithmen geschrieben, die Wartungsoperationen und die Relokalisierungen der Fahrzeuge von Coldspots zu Hotspots steuern. So sollte eine möglichst hohe Flottenverfügbarkeit und Auslastung erzielt werden.
Data Science, Mathematik, Business Intelligence (BI), Data Warehousing, ETL, Maschinelles Lernen, Python, Google Cloud
12/2018 – 12/2018
TätigkeitsbeschreibungIch habe bei dem Kunden eine mehrtägige Schulung zum Thema R und Machine Learning Services auf dem MS SQL Server durchgeführt. Der Schwerpunkt lag darauf, den Mitarbeitern die Möglichkeiten für den Einsatz statistischer Methoden und Machine Learning Verfahren auf dem SQL Server näher zu bringen.
Eingesetzte QualifikationenData Science, Microsoft SQL-Server (MS SQL), Maschinelles Lernen, Support Vector Machine
11/2018 – 2/2019
TätigkeitsbeschreibungBei der GWQ werden Versichertendaten von Krankenkassen mit Hilfe statistischer Methoden ausgewertet. Dadurch sollen Vorhersagemodelle entwickelt werden, die bei Versicherten bisher unentdeckte Krankheiten erkennen oder feststellen, ob Personen Risikogruppen angehören, die zukünftig von bestimmten Krankheiten betroffen sein könnten. Das Ziel dabei ist eine bessere medizinische Betreuung der versicherten bei gleichzeitiger Kostenoptimierung für die Krankenkassen. Ich habe im Rahmen dieses Projekts die GWQ in verschiedenen Projekten unterstützt. Dabei habe ich über Möglichkeiten zum Einsatz von Machine Learning beraten und war selbst an der Umsetzung dieser Projekte beteiligt. Die Daten wurden hier aus einem Data Warehouse bezogen und mit Hilfe von SQL und R für die Anwendung von Data Science Methoden aufbereitet.
Eingesetzte QualifikationenMicrosoft SQL-Server (MS SQL), Maschinelles Lernen, Python
11/2018 – 2/2019
TätigkeitsbeschreibungIm Rahmen eines Digitalisierungsprojekts beim Kunden, wurde eine Studie durchgeführt, um die bestehende Datennutzung und Vernetzung im Unternehmen zu dokumentieren und Potentiale aufzudecken, wie durch den Einsatz moderner BI und Data Science Methoden Mehrwerte aus den vorhandenen Daten geschaffen werden können. Außerdem sollten Probleme bei der Data Governance identifiziert werden und Maßnahmen zur Verbesserung der Datenqualität vorgeschlagen werden. Ich habe selbst beim Kunden Interviews und Workshops durchgeführt und anschließend die Studie erstellt. In dieser Studie wurden dem Kunden ausführliche Lösungsansätze geliefert, wie er durch eine Cloud-Infrastruktur mit data Warehouse und Data Lake die Data Governance optimieren und die vernetzte Datennutzung über Abteilungen und Unternehmensstandorte hinweg ermöglichen kann. Außerdem wurden Konzepte für den Einsatz von BI Tools und maschinellem Lernen erläutert, durch die sich Problemstellungen lösen lassen, die sich aus den Interview Terminen ergeben hatten.
Eingesetzte QualifikationenData Warehousing, Maschinelles Lernen, Microsoft Azure
4/2018 – 7/2018
TätigkeitsbeschreibungDer Kunde bietet eine Data Warehouse Lösung mit einer eigenen Software für Krankenkassen an. Um den Anforderungen bei Krankenkassen, mit sehr vielen Versicherten und dementsprechend großen Mengen an Daten, gerecht zu werden, musste die Performance der ETL Ladestrecken für das Data Warehouse optimiert werden. Hierfür mussten etliche Stored Procedures umgearbeitet werden, um die Abläufe bei der Datenverarbeitung zu verbessern.
Eingesetzte QualifikationenData Warehousing, Transact-Sql, Microsoft SQL-Server (MS SQL)
3/2018 – 9/2018
TätigkeitsbeschreibungDer Kunde benötigte ein System, über das er wichtige Pressemeldungen in einfacher Art und Weise abrufen und lesen kann. Zu diesem Zweck wurde eine Lösung entwickelt, bei der ein Webcrawler Nachrichtenmeldungen aus verschiedenen Quellen abgreift, diese bereinigt und in einem Dashboard in übersichtlicher Form für den Nutzer bereitstellt. Um dem Nutzer die Möglichkeit zu geben, die Meldungen nach Thema oder Wichtigkeit der Meldung zu filtern, wurde eine künstliche Intelligenz integriert, die alle abgegriffenen Artikel klassifiziert, bevor sie im Dashboard bereitgestellt werden. Meine Aufgabe in diesem Projekt bestand in der Implementierung der künstlichen Intelligenz. Bei der Umsetzung wurde Natural Language Processing und eine Ensemble Methode für die Lösung des Klassifizierungsproblems eingesetzt.
Eingesetzte QualifikationenMicrosoft SQL-Server (MS SQL), Maschinelles Lernen, Natural Language Processing, Python, Microsoft Azure
3/2018 – 5/2018
TätigkeitsbeschreibungBei der Stadtreinigung in Hamburg befand sich zur angegebenen Zeit gerade das Data Warehouse im Umbau. Schritt für Schritt sollte das Datenbankschema vereinheitlicht und erweitert werden. Hierfür mussten ETL-Strecken umgebaut oder neu erstellt werden, die Anbindung in den OLAP Cube vorgenommen werden und Berichte in Excel generiert werden. Ich habe bei diesem Projekt etwa 3 Monate unterstützend mitgearbeitet und habe im Rahmen dieser Tätigkeit Anbindungen für einzelne Fachbereiche neu entwickelt und sowohl die nötigen Anbindungen im Cube als auch die Erstellung der Berichte vorgenommen.
Eingesetzte QualifikationenMicrosoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)
11/2017 – 12/2017
TätigkeitsbeschreibungBei diesem Projekt wurde im Rahmen eines Proof of Concept ein Reporting System entwickelt, über das sich die Auslastung von Parkhäusern überwachen lässt. Rohdaten über Ein- und Ausfahrten wurden auf einen SQL Server importiert und aufbereitet. Zur Auswertung der Daten wurde dann ein Dashboard in Power BI aufgesetzt, über das sich Kennzahlen abrufen lassen und die Daten nach diversen Kriterien gefiltert werden können. Dieses Projekt habe ich komplett eigenverantwortlich bearbeitet und erfolgreich abgeschlossen.
Eingesetzte QualifikationenPower Bi, Transact-Sql, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)
7/2017 – 12/2017
TätigkeitsbeschreibungBei dem Kunden handelt es sich um einen Onlinehandel, für den im Rahmen des Projekts ein Data Warehouse von Grund auf aufgebaut werden sollte. Dieses wurde vorwiegend für das Einkaufscontrolling konzipiert und sollte es ermöglichen den Bedarf für Warenbestellungen zu ermitteln. Zu diesem Zweck wurde ein DWH auf einem MS SQL Server erstellt und mit Analysis Services ein Tabular Cube aufgesetzt. Über den Cube wurden Verkaufszahlen aus der Vergangenheit ausgewertet und über eine Berechnungslogik Prognosen für die zukünftigen Bedarfe errechnet. Ich selbst hatte bei diesem Projekt die Teamleitung und habe das Design des DWH und den Aufbau der ETL Strecken verantwortet. Außerdem habe ich die Berechnungslogik für den Cube konzipiert und umgesetzt.
Eingesetzte QualifikationenData Warehousing, Microsoft SQL Server Analysis Services (SSAS), Transact-Sql, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)
Ausbildung
Rostock
Rostock
Über mich
Weitere Kenntnisse
Arbeit mit Machine Learning Frameworks z.B. Scikit-Learn, Tensorflow und Keras
Auswertung Geodaten z.B. mit h3-Framework von Uber
Data Science: Einsatz diverser Unsupervised und Supervised Learning Verfahren z.B. Deep Learning, Support Vector Machines, Zeitreihenanalysen, Assoziationsanalysen
Data Engineering / ETL: Apache Airflow, SSIS
Business Intelligence: Google BigQuery, MS SQL Server, MySQL, PostgreSQL, Power BI, Looker, Dash
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Spanisch (Grundkenntnisse)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden