freiberufler Data Science & Business Intelligence auf freelance.de

Data Science & Business Intelligence

offline
  • auf Anfrage
  • 10437 Berlin
  • Europa
  • de  |  en  |  es
  • 09.06.2021

Kurzvorstellung

Ich bringe Erfahrungen aus meinen bisherigen Tätigkeiten als Consultant für Data Science mit, bei denen ich in diversen sehr unterschiedlichen Projekten im Machine Learning und BI Umfeld gearbeitet habe.

Qualifikationen

  • Apache Spark
  • Big Data4 J.
  • Business Intelligence (BI)1 J.
  • Data Science4 J.
  • Data Warehousing6 J.
  • DevOps4 J.
  • ETL
  • Maschinelles Lernen5 J.
  • Mathematik
  • Microsoft Azure4 J.
  • Power Bi3 J.
  • Python5 J.
  • R
  • Ruby
  • SQL

Projekt‐ & Berufserfahrung

Data Scientist / Data Engineer
Endor AG, Landshut, Bayern
4/2021 – offen (3 Jahre, 9 Monate)
High-Tech- und Elektroindustrie
Tätigkeitszeitraum

4/2021 – offen

Tätigkeitsbeschreibung

Die Endor AG stellt hochwertiges Rennspiel-Equipment für Spielekonsolen und PCs her. Das Unternehmen mit Sitz in Landshut, Bayern vertreibt seine Produkte weltweit. Ich war im Rahmen dieses Projekts als Teil des Controlling-/BI-Teams tätig und habe die internen Mitarbeiter bei ihren Aufgaben unterstützt und beraten. Für das Unternehmen wurde von Grund auf ein neues Data Vault Warehouse gebaut, um eine stabile Grundlage für das Reporting und die Anwendung von Machine Learning Algorithmen zu schaffen. Da während der Projektlaufzeit etliche Softwaresysteme bei der Endor AG umgestellt wurden, war ein besonderes Augenmerk auf die Flexibilität der neuen BI Landschaft nötig, um neue Systeme schnell und unkompliziert in das Berichtswesen integrieren zu können.

Meine Tätigkeit umfasste die Anbindung verschiedener APIs und proprietärer Systeme in die BI Landschaft. Hierfür wurden Daten-Pipelines in Apache Airflow genutzt. Ich habe das Design des Data Warehouse verantwortet und die angebundenen Daten in das neue Datenschema integriert. Im Austausch mit den verschiedenen Fachabteilungen habe ich die Anforderungen an das Reporting und über die Möglichkeit für den Einsatz verschiedener BI Tools und von Machine Learning beraten. Die Implementierung von neuen Reports und Machine Learning Algorithmen gehörten dabei ebenfalls zu meinen Aufgaben

Eingesetzte Qualifikationen

Big Data, Data Science, Data Warehousing, DevOps, Maschinelles Lernen, Microsoft Azure, Power Bi, Python

Data Engineer
Otto Gmbh & Co. KG, Remote
10/2020 – 4/2021 (7 Monate)
Handel
Tätigkeitszeitraum

10/2020 – 4/2021

Tätigkeitsbeschreibung

Die Otto Gruppe ist ein Handels- und Dienstleistungsunternehmen mit Sitz in Hamburg. Im Rahmen dieses Projekts war ich als Teil eines Data Science Teams tätig, das für Online Marketing zuständig ist und unter anderem Google Adwords und Bing Adwords Kampagnen durch Datengetriebene Algorithmen steuert. Die bisherigen On-Premises Lösungen, mit denen hier gearbeitet wurde, sollten durch eine neue Infrastruktur in der Google Cloud Platform abgelöst werden.

Meine Tätigkeit umfasste das erstellen von Resourcen und die Steuerung der Nutzerrechte in der Google Cloud Platform über Terraform, den Bau von Datenpipelines in Apache Airflow und das erstellen von Microservices in Docker Containern. Mit Hilfe dieser Technologien habe ich für das dortige Data Science Team Daten von Google und Bing APIs abgerufen und in das Data Vault Warehouse überführt

Eingesetzte Qualifikationen

Big Data, Business Intelligence (BI), Data Warehousing, DevOps, Python

Data Scientist / Data Analyst
Volkswagen / UMI, Berlin
8/2019 – 3/2020 (8 Monate)
Automobilindustrie
Tätigkeitszeitraum

8/2019 – 3/2020

Tätigkeitsbeschreibung

Das Unternehmen Urban Mobility International (UMI) ist eine hundertprozentige Tochterfirma von Volkswagen und betreibt den rein elektrischen Car Sharing Service WeShare. Die Firma nahm den Betrieb im Sommer 2019 in Berlin auf und weitet den Dienst nun auf immer mehr Städte in ganz Europa aus. Durch den ausschließlichen Einsatz von Elektrofahrzeugen und die dadurch erhöhten Wartungszeiten entstehen zusätzliche Herausforderungen beim Betrieb der Fahrzeugflotte. Diese spiegelten sich auch in den fachlichen Anforderungen in der Data Abteilung wider.
Als Teil des Data Teams gehörte es zu meinen Aufgaben das Data Warehouse Design zu entwerfen, Datenpipelines zu konstruieren und für die verschiedenen Fachabteilungen im Unternehmen statistische Auswertungen in Form von Dashboards oder Ad Hoc Analysen zu bauen, um diese in ihrer Arbeit zu unterstützen. Dabei habe ich in enger Zusammenarbeit mit den jeweiligen Stakeholdern die fachlichen Anforderungen besprochen und das Datenbankdesign entsprechend zugeschnitten, um effiziente Auswertungen zu gewährleisten.
Neben diesen klassischen Datenauswertungen gehörte zu meinem Aufgabenfeld auch die Entwicklung von Algorithmen für operative Zwecke und die Programmierung von Simulations- und Vorhersagemodellen. So wurden unter Einsatz von Machine Learning und Optimierungsverfahren Modelle für die Vorhersage von Nachfrage und Ausfallzeiten entwickelt und darauf aufbauend Algorithmen geschrieben, die Wartungsoperationen und die Relokalisierungen der Fahrzeuge von Coldspots zu Hotspots steuern. So sollte eine möglichst hohe Flottenverfügbarkeit und Auslastung erzielt werden.

Eingesetzte Qualifikationen

Data Science, Mathematik, Business Intelligence (BI), Data Warehousing, ETL, Maschinelles Lernen, Python, Google Cloud

Schulungsleiter
GWQ ServicePlus AG, Düsseldorf
12/2018 – 12/2018 (1 Monat)
Gesundheitswesen
Tätigkeitszeitraum

12/2018 – 12/2018

Tätigkeitsbeschreibung

Ich habe bei dem Kunden eine mehrtägige Schulung zum Thema R und Machine Learning Services auf dem MS SQL Server durchgeführt. Der Schwerpunkt lag darauf, den Mitarbeitern die Möglichkeiten für den Einsatz statistischer Methoden und Machine Learning Verfahren auf dem SQL Server näher zu bringen.

Eingesetzte Qualifikationen

Data Science, Microsoft SQL-Server (MS SQL), Maschinelles Lernen, Support Vector Machine

Data Scientist
GWQ ServicePlus AG, Düsseldorf
11/2018 – 2/2019 (4 Monate)
Gesundheitswesen
Tätigkeitszeitraum

11/2018 – 2/2019

Tätigkeitsbeschreibung

Bei der GWQ werden Versichertendaten von Krankenkassen mit Hilfe statistischer Methoden ausgewertet. Dadurch sollen Vorhersagemodelle entwickelt werden, die bei Versicherten bisher unentdeckte Krankheiten erkennen oder feststellen, ob Personen Risikogruppen angehören, die zukünftig von bestimmten Krankheiten betroffen sein könnten. Das Ziel dabei ist eine bessere medizinische Betreuung der versicherten bei gleichzeitiger Kostenoptimierung für die Krankenkassen. Ich habe im Rahmen dieses Projekts die GWQ in verschiedenen Projekten unterstützt. Dabei habe ich über Möglichkeiten zum Einsatz von Machine Learning beraten und war selbst an der Umsetzung dieser Projekte beteiligt. Die Daten wurden hier aus einem Data Warehouse bezogen und mit Hilfe von SQL und R für die Anwendung von Data Science Methoden aufbereitet.

Eingesetzte Qualifikationen

Microsoft SQL-Server (MS SQL), Maschinelles Lernen, Python

Stellvertretender Projektleiter
GiZ, Bonn, Eschborn, Berlin
11/2018 – 2/2019 (4 Monate)
Entwicklungsförderung
Tätigkeitszeitraum

11/2018 – 2/2019

Tätigkeitsbeschreibung

Im Rahmen eines Digitalisierungsprojekts beim Kunden, wurde eine Studie durchgeführt, um die bestehende Datennutzung und Vernetzung im Unternehmen zu dokumentieren und Potentiale aufzudecken, wie durch den Einsatz moderner BI und Data Science Methoden Mehrwerte aus den vorhandenen Daten geschaffen werden können. Außerdem sollten Probleme bei der Data Governance identifiziert werden und Maßnahmen zur Verbesserung der Datenqualität vorgeschlagen werden. Ich habe selbst beim Kunden Interviews und Workshops durchgeführt und anschließend die Studie erstellt. In dieser Studie wurden dem Kunden ausführliche Lösungsansätze geliefert, wie er durch eine Cloud-Infrastruktur mit data Warehouse und Data Lake die Data Governance optimieren und die vernetzte Datennutzung über Abteilungen und Unternehmensstandorte hinweg ermöglichen kann. Außerdem wurden Konzepte für den Einsatz von BI Tools und maschinellem Lernen erläutert, durch die sich Problemstellungen lösen lassen, die sich aus den Interview Terminen ergeben hatten.

Eingesetzte Qualifikationen

Data Warehousing, Maschinelles Lernen, Microsoft Azure

SQL-Entwickler
TERRANET Software GmbH, Berlin
4/2018 – 7/2018 (4 Monate)
Gesundheitswesen
Tätigkeitszeitraum

4/2018 – 7/2018

Tätigkeitsbeschreibung

Der Kunde bietet eine Data Warehouse Lösung mit einer eigenen Software für Krankenkassen an. Um den Anforderungen bei Krankenkassen, mit sehr vielen Versicherten und dementsprechend großen Mengen an Daten, gerecht zu werden, musste die Performance der ETL Ladestrecken für das Data Warehouse optimiert werden. Hierfür mussten etliche Stored Procedures umgearbeitet werden, um die Abläufe bei der Datenverarbeitung zu verbessern.

Eingesetzte Qualifikationen

Data Warehousing, Transact-Sql, Microsoft SQL-Server (MS SQL)

Data Scientist
Deutsche Apotheker- und Ärztebank, Berlin
3/2018 – 9/2018 (7 Monate)
Banken
Tätigkeitszeitraum

3/2018 – 9/2018

Tätigkeitsbeschreibung

Der Kunde benötigte ein System, über das er wichtige Pressemeldungen in einfacher Art und Weise abrufen und lesen kann. Zu diesem Zweck wurde eine Lösung entwickelt, bei der ein Webcrawler Nachrichtenmeldungen aus verschiedenen Quellen abgreift, diese bereinigt und in einem Dashboard in übersichtlicher Form für den Nutzer bereitstellt. Um dem Nutzer die Möglichkeit zu geben, die Meldungen nach Thema oder Wichtigkeit der Meldung zu filtern, wurde eine künstliche Intelligenz integriert, die alle abgegriffenen Artikel klassifiziert, bevor sie im Dashboard bereitgestellt werden. Meine Aufgabe in diesem Projekt bestand in der Implementierung der künstlichen Intelligenz. Bei der Umsetzung wurde Natural Language Processing und eine Ensemble Methode für die Lösung des Klassifizierungsproblems eingesetzt.

Eingesetzte Qualifikationen

Microsoft SQL-Server (MS SQL), Maschinelles Lernen, Natural Language Processing, Python, Microsoft Azure

DWH Entwickler
Stadtreinigung Hamburg, Hamburg
3/2018 – 5/2018 (3 Monate)
Versorgungswirtschaft
Tätigkeitszeitraum

3/2018 – 5/2018

Tätigkeitsbeschreibung

Bei der Stadtreinigung in Hamburg befand sich zur angegebenen Zeit gerade das Data Warehouse im Umbau. Schritt für Schritt sollte das Datenbankschema vereinheitlicht und erweitert werden. Hierfür mussten ETL-Strecken umgebaut oder neu erstellt werden, die Anbindung in den OLAP Cube vorgenommen werden und Berichte in Excel generiert werden. Ich habe bei diesem Projekt etwa 3 Monate unterstützend mitgearbeitet und habe im Rahmen dieser Tätigkeit Anbindungen für einzelne Fachbereiche neu entwickelt und sowohl die nötigen Anbindungen im Cube als auch die Erstellung der Berichte vorgenommen.

Eingesetzte Qualifikationen

Microsoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)

BI Entwickler
Contipark Parkgaragen GmbH, Berlin
11/2017 – 12/2017 (2 Monate)
Parkhausbetreiber
Tätigkeitszeitraum

11/2017 – 12/2017

Tätigkeitsbeschreibung

Bei diesem Projekt wurde im Rahmen eines Proof of Concept ein Reporting System entwickelt, über das sich die Auslastung von Parkhäusern überwachen lässt. Rohdaten über Ein- und Ausfahrten wurden auf einen SQL Server importiert und aufbereitet. Zur Auswertung der Daten wurde dann ein Dashboard in Power BI aufgesetzt, über das sich Kennzahlen abrufen lassen und die Daten nach diversen Kriterien gefiltert werden können. Dieses Projekt habe ich komplett eigenverantwortlich bearbeitet und erfolgreich abgeschlossen.

Eingesetzte Qualifikationen

Power Bi, Transact-Sql, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)

Projektleiter
Fashionette GmbH, Düsseldorf / Berlin
7/2017 – 12/2017 (6 Monate)
Handel
Tätigkeitszeitraum

7/2017 – 12/2017

Tätigkeitsbeschreibung

Bei dem Kunden handelt es sich um einen Onlinehandel, für den im Rahmen des Projekts ein Data Warehouse von Grund auf aufgebaut werden sollte. Dieses wurde vorwiegend für das Einkaufscontrolling konzipiert und sollte es ermöglichen den Bedarf für Warenbestellungen zu ermitteln. Zu diesem Zweck wurde ein DWH auf einem MS SQL Server erstellt und mit Analysis Services ein Tabular Cube aufgesetzt. Über den Cube wurden Verkaufszahlen aus der Vergangenheit ausgewertet und über eine Berechnungslogik Prognosen für die zukünftigen Bedarfe errechnet.
Ich selbst hatte bei diesem Projekt die Teamleitung und habe das Design des DWH und den Aufbau der ETL Strecken verantwortet. Außerdem habe ich die Berechnungslogik für den Cube konzipiert und umgesetzt.

Eingesetzte Qualifikationen

Data Warehousing, Microsoft SQL Server Analysis Services (SSAS), Transact-Sql, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL)

Ausbildung

Mathematik
Master
2017
Rostock
Mathematik
Bachelor
2014
Rostock

Über mich

Ich bin Mathematiker und habe mich in meinem Studium auf die Bereiche Wahrscheinlichkeitstheorie und Statistik spezialisiert. Besonders habe ich mich mit den Grundlagen für Machine Learning und statistischen Simulationsmodellen auseinander gesetzt. In meiner beruflichen Laufbahn habe ich diese Spezialgebiete weiter vertieft. In meiner Tätigkeit als IT Consultant und später als freiberuflicher Data Scientist habe ich in diversen Projekten Erfahrungen im Bereich Business Intelligence und Data Science gesammelt. Dabei habe ich in unterschiedlichsten fachlichen Kontexten Data Warehouse Entwicklung, statistische Auswertung und den Aufbau von Simulations- und Vorhersagemodellen betreut. Der folgende Abschnitt gibt einen Überblick zu meinen bisherigen Projekten und den Tätigkeiten, die ich dort übernommen habe. Im letzten Abschnitt findet sich eine Auflistung beruflichen Laufbahn und meiner fachlichen Kenntnisse.

Weitere Kenntnisse

Programmierung: Python, R, Ruby, Apache Spark, Matlab, SQL, Git, HTML, CSS

Arbeit mit Machine Learning Frameworks z.B. Scikit-Learn, Tensorflow und Keras

Auswertung Geodaten z.B. mit h3-Framework von Uber

Data Science: Einsatz diverser Unsupervised und Supervised Learning Verfahren z.B. Deep Learning, Support Vector Machines, Zeitreihenanalysen, Assoziationsanalysen

Data Engineering / ETL: Apache Airflow, SSIS

Business Intelligence: Google BigQuery, MS SQL Server, MySQL, PostgreSQL, Power BI, Looker, Dash

Persönliche Daten

Sprache
  • Deutsch (Muttersprache)
  • Englisch (Fließend)
  • Spanisch (Grundkenntnisse)
Reisebereitschaft
Europa
Arbeitserlaubnis
  • Europäische Union
Profilaufrufe
3882
Alter
39
Berufserfahrung
7 Jahre und 10 Monate (seit 02/2017)
Projektleitung
1 Jahr

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden