Data Scientist
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 10587 Berlin
- DACH-Region
- de | en | vi
- 18.06.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
11/2023 – offen
Tätigkeitsbeschreibung
Entwicklung eines Modells, welche Änderungen von Bestellungen aufzeigt, in Abhängigkeit zur verbleibenden Zeit bis zur Auslieferung.
Thema: Entwicklung eines Analyse-Modells, welche die Varianz der Bestellungen aufzeigt
Branche: Maschinenbau - Supply-Chain-Management
Tools: Databricks, pyspark, SQL, Python
Data Warehousing, Datenanalyse
4/2023 – offen
Tätigkeitsbeschreibung
Verantwortlich für die Bereinigung zeitabhängiger Sensordaten und die Erstellung von Modellen, die zur Klassifizierung der zugehörigen Zeitreihen geeignet sind. Nutzung der Python-Bibliothek sktime, um diese Modelle effizient zu entwickeln. Um die zahlreichen Versuche und Modelle effektiv zu verfolgen, wurde MLflow eingesetzt. Außerdem wurde Databricks eingesetzt, um die Datenverarbeitungsfunktionen zu optimieren und die Gesamteffizienz des Projekts zu steigern.
Thema: Klassifizierung von Zeitreihen
Branche: Maschinen - Sensordaten
Tools: Python, sktime, MLflow, Databricks, pyspark
Databricks, Maschinelles Lernen, Python, SQL
8/2022 – 5/2023
Tätigkeitsbeschreibung
Verantwortlich für die Aufnahme von Bedingungen und deren Umsetzung in der Datenbank. Dies beinhaltete die Konzeption und Implementierung von ETL-Prozessen, um die nahtlose Integration von Daten zu gewährleisten. die Wartung des Data Warehouse, um dessen reibungslosen Betrieb und optimale Leistung sicherzustellen. Darüber hinaus trugen sie aktiv zur Entwicklung der Projektinfrastruktur bei und nutzten ihr Fachwissen zur Verbesserung der Datenverwaltung und -zugänglichkeit.
Thema: Pflegen von ETL Prozessen
Branche: Produktion
Tools: SQL, Terraform, Azure Data Factory, Power BI
Microsoft Azure, Power Bi, Microsoft SQL-Server (MS SQL)
4/2022 – 12/2022
Tätigkeitsbeschreibung
Aktive Beteiligung an der Entwicklung eines Alarmsystems, das die Markenleitung bei wesentlichen Änderungen umgehend benachrichtigen soll. Dazu gehörte vor allem die Arbeit mit SQL-Abfragen, um bestimmte Bedingungen zu ermitteln, die das System auslösen würden. Sobald diese Bedingungen erfüllt waren, wurde ein Auslöser aktiviert, der das Senden einer Nachricht an das System initiierte.
Thema: Implementierung von Lambda Funktionen
Branche: E-Commerce
Verwendete Tools: SQL, snowflake, CDK, AWS, Lambda-Funktionen
Amazon Web Services (AWS), Snowflake, SQL
5/2021 – 3/2022
Tätigkeitsbeschreibung
In dieser Funktion drehte sich das zentrale Ziel um die Entwicklung eines praktischen Prototyps, der auf Vorhersage ausgerichtet ist Umsatzwachstum und visuell zugängliche Vermittlung dieser Erkenntnisse. Dieses Bestreben beinhaltete den Zusammenschluss von Daten aus SQL- und Excel-Quellen, die nahtlos in eine Reihe sorgfältig formulierter Annahmen integriert wurden. Das Übergeordnetes Ziel war es, ein umfassendes Dashboard zu konstruieren, das die Entwicklung effektiv beleuchten würde Landschaft der Verkaufstrends und Schlüsselentwicklungen.
Die treibende Kraft hinter dieser Initiative war die Verpflichtung, Entscheidungsprozesse datengesteuert zu verbessern Einblicke. Der Prototyp wurde nicht nur als Vorhersagewerkzeug konzipiert, sondern auch als Mittel, um die Stakeholder mit einem zu stärken tiefes Verständnis der zugrunde liegenden Faktoren, die die Verkaufstrends beeinflussen. Auf diese Weise sollte eine Information ermöglicht werden strategische Planung und Anleitung kritischer Geschäftsentscheidungen, was die unverzichtbare Rolle der Datenanalyse unterstreicht und Visualisierung im Streben nach Geschäftserfolg.
Hauptaufgaben
Prototyperstellung: Entwickelte einen Prototyp zur Vorhersage des Verkaufswachstums mit Python- und Azure-Funktionen.
Datenintegration: Integrierte SQL- und Excel-Datenquellen mit Azure-Funktionen für eine umfassende Analyse.
Dashboard-Visualisierung: Verwendete Power BI, um visuell informative Sales-Trend-Dashboards zu erstellen.
Annahmetests: Angestelltes Python zum strengen Testen und Implementieren von Annahmen zum Umsatzwachstum.
Übergang zu SSIS ETL-Prozessen: Ersetzte Azure-Funktionen durch SSIS ETL-Prozesse und optimierte SQL-Abfragen für effiziente Datentransformation und -belastung.
Power Bi, SQL, Python, Microsoft Azure
5/2021 – 3/2022
Tätigkeitsbeschreibung
In dieser Rolle lag der Schwerpunkt auf der Bereitstellung wertvoller Hilfe bei der Einrichtung und Wartung von ETL (Auszug, Transformations-, Last-) Prozesse zum Zwecke der Preisoptimierung mit Ziant. Dies umfasste eine Reihe von Verantwortlichkeiten zur Optimierung von Preisstrategien und zur Gewährleistung eines effizienten Datenflusses.
Hauptaufgaben
ETL-Prozesseinrichtung: Zusammenarbeit beim Einrichten von ETL-Prozessen, wobei die Funktionen von Ziant zum Extrahieren genutzt werden relevante Preisdaten, transformieren Sie sie, um bestimmte Geschäftsanforderungen zu erfüllen, und laden Sie sie in das System.
Datenintegration: Spielte eine entscheidende Rolle bei der Integration verschiedener Datenquellen, um eine umfassende zu ermöglichen Analyse von Preisfaktoren, die letztendlich eine bessere Entscheidungsfindung unterstützen.
Wartung und Optimierung: Beteiligte sich aktiv an der laufenden Wartung der ETL-Prozesse und stellte Daten sicher Genauigkeit und kontinuierliche Optimierung dieser Prozesse für verbesserte Effizienz und Genauigkeit.
Preisoptimierungsunterstützung: Unterstützung bei der Verwendung der Tools und Techniken von Ziant zur Optimierung von Preisstrategien, Beitrag zur Fähigkeit des Unternehmens, wettbewerbsfähige und profitable Preise festzulegen
Thema: Preisoptimierung
Branche: Großhandel - E-Commerce
Tools: SQL
SQL
4/2021 – 8/2021
Tätigkeitsbeschreibung
Das Hauptziel dieser Aufgabe war es, einen gründlichen Vergleich zwischen zwei Datenbanken durchzuführen, eine aus der Controlling Abteilung und die andere von Finance. Der spezifische Schwerpunkt lag auf der Aufdeckung von Abweichungen bei den Verkaufszahlen und die Ursprünge dieser Unterschiede verstehen.
Um dies zu erreichen, wurde eine Kombination von Tools gekonnt eingesetzt, darunter SQL, Python und Excel. SQL wurde verwendet, um Extrahieren, transformieren und analysieren Sie Daten aus beiden Datenbanken, um die Identifizierung von Unterschieden zu erleichtern. Python gespielt eine wichtige Rolle bei der Automatisierung von Datenanalyseprozessen und bei Bedarf bei komplexeren Berechnungen. Excel, mit Seine vielseitigen Datenvisualisierungsfunktionen wurden verwendet, um Ergebnisse klar und verständlich darzustellen.
Hauptaufgaben
Datenextraktion und -transformation mit SQL: Extrahierte relevante Daten aus Controlling- und Finanzdatenbanken unter Verwendung von SQL und führte die erforderlichen Datentransformationen durch, um es für den Vergleich vorzubereiten.
Datenanalyse mit Python: Verwendete Python für eine eingehende Datenanalyse, einschließlich der Ermittlung von Umsatzunterschieden Zahlen und untersuchen ihre Grundursachen.
Berechnungsautomatisierung: Verwenden Sie Python, um Berechnungen zu automatisieren und komplexe Datenvorgänge durchzuführen, um dies sicherzustellen Genauigkeit in der Analyse.
Datenvisualisierung mit Excel: Präsentierte die Ergebnisse und Erkenntnisse visuell klar und verständlich Verwendung der Datenvisualisierungsfunktionen von Excel.
SQL, Python, Microsoft Excel
Ausbildung
Technische Universität Dresden
Dresden
Über mich
ich bin ein Data Analyst und Data Scientist mit einem Schwerpunkt auf Datenanalyse, maschinellem Lernen und Automatisierung. Meine Expertise liegt darin, Daten sorgfältig zu untersuchen, um Muster und Trends zu identifizieren.
In meinen über sechs Jahren Erfahrung in verschiedenen Branchen habe ich mich besonders in den Bereichen Datenbereinigung, -analyse und Modellentwicklung zur Schaffung solider Entscheidungsgrundlagen vertiefen können. Die Automatisierung fasziniert mich, da sie dazu beiträgt, effiziente Datenpipelines und Prozesse zu schaffen, die Zeit und Ressourcen schonen.
✨ Datenanalyse
✨ Machine Learning
✨ Automatisierung
Ebenfalls verfüge über ein vielseitiges Toolkit, das von klassischen Datenbankabfragen bis hin zu modernen ML-Bibliotheken reicht. So unterstütze ich Unternehmen dabei, datengetriebene Entscheidungen zu treffen und ihre Effizienz zu steigern. Neben meinen technischen Fähigkeiten lege ich großen Wert auf klare Kommunikation von datenbasierten Erkenntnissen und Visualisierungen. Zusätzlich bringe ich Erfahrung in Automatisierungs- und Workflow-Tools sowie in der Nutzung von Plattformen wie GitHub, Linux, Databricks und Cloudplattformen mit.
? Python | Matlab
? SQL | Snowflake
? Github | Terraform
? Azure | AWS | GCP
Es ist für mich stets eine Bereicherung, mich in neue Fachgebiete einzuarbeiten und dabei neue Methoden und Tools einzusetzen.
Persönliches:
? Pycharm > VSC
? Linux > MacOS > Windows
Weitere Kenntnisse
Qlik Sense | PowerBI
Databricks
SQL
Terraform
Git
Azure | AWS | GCP
Hugo
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Vietnamesisch (Gut)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden