BI, Big Data Consultant
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- Deutschland
- DACH-Region
- ar | de | en
- 12.11.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
3/2023 – 11/2024
Tätigkeitsbeschreibung
- Entwurf der High-level Datenarchitektur (basierend auf der MACH-Architektur) für die neue Datenplatform
- Erstellung von technischen Konzepten für Datenmanagement in der neuen Datenplatform
- Implementierung von ETL-Prozessen in PySpark (Databricks)
- Erstellung von technischen Konzepten für die Anbindung von externen Systemen
- Organisation und Moderation von der Community of Practice (CoP) für Datenarchitektur Meetings
- Erstellung von Datenmodellen für Anwendungsfällen von der verschiedenen Business Bereichen
- Optimierung und Migration von ETL Strecken (Pyspark) in Databricks
Apache Spark, Data Analyst, Data Engineer, Data Warehousing, Databricks, ETL, Microsoft Azure, Pandas, Python, SQL
6/2021 – 3/2023
Tätigkeitsbeschreibung
- Process Mining im Celonis-Umfeld
- Data Engineering
- Anbindung von Daten aus externen Systemen (ERP-Systemen: wie SAP)
- Erstellung von Datenextraktionen und -transformationen in Celonis
- Implementierung und Scheduling von Data Jobs in Celonis
- Erstellung von Analysen und KPI's in Celonis
- Erstellung von Datenladestrecken in Apache Nifi
-Fehlerbehebung in Analysekomponenten
Big Data, Business Intelligence (BI), ETL, ETL-Entwickler, Prozessoptimierung, Reporting, SQL
5/2021 – 12/2021
Tätigkeitsbeschreibung
- Erstellung von T-SQL-Skripten
- Erstellung von Datenpipelines in Azure Data Factory (ADF) und Überwachung der Datenjobs mit Event Grid
Datenpipelines
- Erstellung von Datentransformationen in PySpark (Databricks)
- Konfiguration der Datenjobs und Datenintegration
Apache Spark, Databricks, Big Data, Microsoft Azure, Python, Transact-Sql
3/2020 – 4/2021
Tätigkeitsbeschreibung
- Entwurf und Verbesserung von Teile einer bestehenden Datenarchitektur für Textklassifikation in Microsoft Azure
- Implementierung der Komponenten in Microsoft Azure
- Erstellung von technischen Konzepten (Sicherheitskonzept, Datenspeicherungskonzept) und Dokumentation der Implementierung
- Erstellung von Skripten zum Anlegen von Datenbankobjekte in Azure Synapse
- Erstellung von Daten-Pipelines in Azure Data Factory (ADF) für die Archivierung von Daten
- Übersetzung von Skripten von Teradata-Syntax zu T-SQL
- Migration der Daten und Überprüfung der Migration
- Erstellung von technischen Konzepten und Dokumentationen
Cloud (allg.), Cloud Computing, Maschinelles Lernen, Microsoft Azure, Python, Software Architecture, Textklassifikation
3/2019 – 2/2020
Tätigkeitsbeschreibung
- Anwendungsentwicklung in Java (EE)
- Erstellung von Testfällen
- Erstellung von Datenbankabfragen und Skripte
- Erstellung von technischen Konzepten und Dokumentationen
J2EE, Java SE, Java (allg.), Oracle Database, Reporting, SQL, Testen, XML
9/2017 – 2/2019
Tätigkeitsbeschreibung
- Implementierung der Entitäten-Erkennung (NLP-NER), um Daten von Textdateien zu strukturieren.
- Einlesen der Daten von verschiedenen Quellen
- Erstellung eines Datenmodells für externe Daten (öffentliche Data leaks)
- Umsetzung des ETL-Prozesses und Aufbau eines Data Warehouse
- Analyse von produktiven Kundendaten, um Kundenprozesse zu optimieren und effizienter zu gestalten
Apache Spark, Data Warehousing, ETL, Java SE, Microsoft SQL-Server (MS SQL), Natural Language Processing, Oracle Database, Pandas, Python
9/2015 – 2/2017
Tätigkeitsbeschreibung
-Implementierung von verschiedenen Anwendungsfälle in den Bereich Job -, User und Disk Management.
-Implementierung der Automatisierung und Testen des Automatisierungsflusses
-Erstellung von Skripte für die Automatisierung
-Anwendung von Best Practices in der Implementierung der Automatisierung
-Vergleich der Performance der automatisierten Prozessen mit einem den Ergebnisse von einem anderen Automatisierungstool
Bash Shell, Netview, Oracle Database, PL/SQL, Scripting, Servicenow, SQL, UML, XML
Zertifikate
Ausbildung
Philipps Universität Marburg
Weitere Kenntnisse
-Branchenkenntnisse: Beratung, Finanz, Luftfahrt und öffentliche Verwaltung
-Programmiersprachen: Java SE, Python
-Bibliotheken: NumPy, Pandas
-Datenbanksysteme: Oracle (11g, 12c, 18c, 19c), MSSQL, MySQL, MariaDB, PostgreSQL 13, Vertica, Microsoft Access, Neo4J
-Abfrage-Sprachen: SQL, PL/SQL, T-SQL, PQL
-Business Intelligence: Tableau, Power BI, Azure Data Factory (ADF), Talend
-Big Data: Apache Hadoop (HDFS, Apache Sqoop, Apache Flume, Apache Hive), Apache Spark, PySpark, Jupyter Notebook, Azure Synapse Analytics, Azure Databricks
-Process Mining: Celonis
-Cloud Computing: Microsoft Azure, AWS
-Entwicklungsumgebungen: Eclipse IDE, IntelliJ IDEA, PyCharm IDE, Oracle SQL Developer, SQL Management Studio (SSMS), Azure Data Studio
-Versionsverwaltung: SVN, GIT
-Andere Software und Werkzeuge: Confluence, Jira
Methods and Approaches: Agile Methodology (Scrum), Test Driven Development (TDD), Object Oriented Development (OOD), DataOps
Persönliche Daten
- Deutsch (Fließend)
- Englisch (Fließend)
- Französisch (Fließend)
- Arabisch (Muttersprache)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden