ETL, DWH, DataLake Experte, Data Engineering
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- Deutschland
- Weltweit
- ku | de | en
- 09.10.2024
Kurzvorstellung
Datenbanken,DWH, ETL, BI,Data Migration ,Big Data, DB2, Oracle , SQL,PL/SQL, MS SQL Server, MYSQL, PostgreSql, Talend, Informatica, ODI, JAVA, Linux, Unix, Windows, shell, MVS, Python, Jupyter Notebook, Jira, ...
Qualifikationen
Projekt‐ & Berufserfahrung
12/2023 – 4/2024
Tätigkeitsbeschreibung
Design und Anbindung neue Schnittstellen (Salesforce, MS Dynamics). Erstellung von ETL Talend Jobs zur Debitoren Rechnungsstellung und Leistungsabrechnung. Deployment von Jobs in Produktionsumgenung. Betrieb und Wartung von ETL Job. Steuerung von Jobabläufen. Daten Import und Export von- und in Salesforce und MS Dynamics.
SQL, Jira, Confluence, Java, Talend, MSSQL,WebShop, MS Office, Salesforce, MS Dynamics, XML, RESTful Web Services & REST API, Sql Stored Procedures,…
Data Warehousing, ETL, Java (allg.), Microsoft Dynamics, Microsoft SQL-Server (MS SQL), Salesforce.Com, SQL
10/2021 – 1/2022
Tätigkeitsbeschreibung
1- Review der ETL Prozesse im Rahmen der Implementierung von General Data Protection Regulation (GDPR) und Cloud Warehouse
2- Einlesen & Analyse der Avro Files mit Python, Data Ingestion Pipelines
3- Konzeption und Design von "common used data platform on Azure”
4- Support und Erstellung von Präsentation für Architektur Team
Technologien: Snowflake, Azure, Databricks, SQL, AbInitio ETL Tool, PuTTy, Linux, Windows
Informationsdesign, Data Science, Databricks, Data Vault, Datenbankentwicklung, ETL, SQL, Linux (Kernel), Snowflake, Engineering data management (EDM)
1/2020 – 1/2024
Tätigkeitsbeschreibung
Modellierung von DWH Landing Zone und DWH Core
Modellierung und Anbindung diverse Schnittstellen in CSLD DWH Projekt
Design und Implementierung von IBM Data Stage Jobs zur Befüllung von DWH DB2-Tabellen, Erstellung eines Errorhandling Konzepts, Design und Implementierung von Classification of Cash Transfers gemäß Fachlichen Vorgaben, Anbindung von verschiedenen Systemen an DWH, Deployment von SQL DDL’s auf Mainframe und zLinux, Design und Implementierung von ETL Strecken
Erstellung und Kalibrieren von Tablespaces, Tables und Indexes im DWH Projekt. Laden der DWH Core Tabellen in IDAA (IBM DB2 Analytics Accelerator for z/OS)
SQL, Jira, DB2-LUW, DB2 z/OS, PowerDesigner, Ultraedit, IBM Data Stage (ETL-Tool), DBVisualizer, Linux, Windows, Z/OS, IBM Data Studio, Deployment, GIT
Software Architecture, Bash Shell, XML
12/2019 – 11/2020
Tätigkeitsbeschreibung
Migration von diversen Datenquellen in MS Dynamics 365 mittels Talend ESB. Design und Entwicklung von Messagings Routes und ETL Strecken. RESTful Web Services & REST API, Sql Stored Procedures,…
Design und Implementierung von Dynamics 365 Anbindung an DWH, Definition und Implementierung von diversen Schnittstellen zur Integration von Dynamics Entitäten ins DWH und in MS Azure Cloud,
Aufbau von Azure-DataLake und dessen Storages, Implementierung von ETL Strecken zum Übertragen von Daten auf Azure-DataLake, Aufbau von FTP-VM auf Azure zum Datentransport von – und in Azure DataLake.
Java, SQL, Stored Procedures, DB2-LUW, MS SQL Server, MS SQL Server Management Studio, GitLab, Talend Data Studio, Talend Data Services, JIRA, Confluence, Postman, Camel, JSON, ERP MS Dynamics Financial and Operation, RabbitMQ …
Databricks, Microsoft Business Intelligence, Wirtschaftsinformatik
5/2019 – 10/2019
Tätigkeitsbeschreibung
Aufbau, Installation, Integration von Talend Data Management Tool, Talend Administration Center (Nexus Repositories, Activ Monitoring Console, Talend Audit, Logging, ElasticSearch, Filebeat, Kibana)
Konzeption, Design und Implementierung von einem DataLake Eco-System (DataLake Storage, Staging-Area, Information-Area, BLOB Speicher) für ARAG SE in Microsoft Azure-Cloud, Unterstützung von Data Scientists & Analytic Team
Design und Implementierung von ETL Jobs zur Übernahme und speichern der strukturierten und nicht -strukturierten Daten(XML, JSON, CSV,…) aus heterogenen Datenbanken und File Systemen in Azure-DataLake für Data Analytic Plattform
Anbindung und Konfiguration von Git-Bitbucket Server für Talend.
Java, SQL, Git, Git Bitbucket, Python, shell, PostgreSql, MS SQL Server, DB2 LUW, Talend Data Studio, Talend Data Management, Anaconda3(Python, Jupyter Notebook, NumPy, SQLAlchemy) Azure-Storage Explorer, Azure Data Studio, Azure Data Factory, PGAdmin, Advanced Query Tool, dbeaver, PuTTy, WinSCP, Linux Redhat, JIRA …
IBM DB2, ETL, Microsoft Azure
2/2019 – 4/2019
Tätigkeitsbeschreibung
Erstellung von ODI (Oracle Data Integrator) Mapping, Packages, Szenarien zur Erstellung und Beladen des STAR-Modells aus CORE-Modell.
Überführung von PL/SQL Prozeduren in ODI Mapping zur konsistenten Datenhaltung der Dimension und Faktentabellen des STAR-Modells diverser Datamarts.
Extraktion der Daten aus heterogener IT-Infrastruktur. Anbindung neuer Interfaces.
Data Vault, Oracle 12c, ODI 12c, SQL Developer, Jira, Confluence, PL/SQL, Java
ETL, Oracle-Anwendungen
3/2017 – 6/2018
Tätigkeitsbeschreibung
Erstellung von ETL Jobs, Design und Implementierung von Interfaces zur Extraktion der Daten aus Quellen und Ablage der Daten in Zielsystemen..
Design und Implementierung von diversen ETL Jobs mittels Talend Plattform for Big Data (5.x & 6.x) und DB2 LUW zur Erstellung und Befüllung eines neuen fachlichen Bestands zur Fortschreibung Kraftfahrt mit zusätzlichen fachlich abgegrenzten Zeitscheiben (Zeitreihen).
Erstellen von SQL (DB2 LUW, MS SQL Server) Statements, Funkionen und Prozeduren, Erstellen, Pflege und Nutzung Bi- temporalen historisierten Tabellen
Transformation und Zusammenführen der allgemeinen Bestandsdatei und Kasko-Daten, Ermittlung und Berechnung von Beiträgen, Erzeugung neuer Zeitscheiben bei der Validierung von:
1. fachlichen Gültigkeiten,
2. Abweichende Fälligkeit,
3. Wechsel des Versicherungsjahres,
4. Zuordnung der Geschäftsvorfälle (Verträge mit allen Änderungen) zu Modulen
5. Ermittlung und Berechnung diverser fachliche Variablen und Zeitreihen im Kontext der fachlichen Daten- und Produktanalyse
Implementierung und Design von Modulen zur Übernahme und Fortschreibung der Änderungen der Kraftfahrt-Verträge in den fachlichen Bestand.
Implementierung der automatisierten täglichen Erstellung vom fachlichen Bestand (Delta-Verarbeitung).
Berichtigung falscher Gültigkeitszeiträume bei Vertragsdaten.
goDIGITAL.Komposit
Migration
Migration der Daten des aktuellen Bestandsführungssystem in das neues Bestandsführungssystem Guidewire Suite.
Aufbau einer 3 Schichten Architektur zur Datenextraktion, Cleansing, Transformation und Laden der Daten.
Talend Plattform for Big Data (Data Integration 5.x und 6.x), Git, MS Office
,ETL Processing, Java, MS SQL Server, DB2 LUW, Bitemporale Tabellen, Jira, Confluence, Sharepoint, XML, Aqua Data Studio, JAVA, SQL, DB2 LUW, MS Office, HP ALM,
Erstellung von User Stories, Tasks, Akzeptanzkriterien,... Agiles Scrum
Konzeption, Implementierung und Test von Transformations- und Reconciliation Jobs (Talend, Git, DB2 LUW, MS SQL Server) im Rahemen der Migration der Claim-Daten in Guidewire System.
IBM DB2, ETL, Systemmigration
8/2016 – 12/2016
Tätigkeitsbeschreibung
Design und Entwicklung von ETL-Schichten und ETL-Strecken innerhalb der Compliance-IT mit Informatica PowerCenter 9.6.1. Migration von Diversen Daten aus heterogenen Quellen in das Geldwäsche Tool Cellent / SMARAGD. Stabilisierung der Datenbeschaffung und Datenanlieferung, Erhöhung der Datenqualität der Compliance-IT.
Entwicklung von Mapping und Workflows, SQL und PL/SQL Prozeduren, Views, Tabellen zur Metadaten gesteuerte Datenaufnahme in Geldwäsche Tool. Design und Implementierung von System Interfaces.
Informatica PowerCenter, Linux, HP ALM, Shell, Java, SQL, PL/SQL, Sybase PowerDesigner, SQL Developer, XML
IBM DB2, Informatica, Red Hat Enterprise Linux (RHEL), Java (allg.)
8/2016 – 12/2016
Tätigkeitsbeschreibung
Design und Entwicklung von DB2-Produktdatenbank im Rahmen des MiFID II Projektes. Erstellung und Implementierung von User-Gruppen-Rollen Berechtigungskonzept.
Entwicklung von Skripten und SQL-Prozeduren, Erstellen von Bufferpools, Table- und Indexspaces, Tabellen, Views, Gruppen, Rollen, Backups. Reorgs und Statistikaktualisierungen, Design und Konzeption von System-Interfaces sowie von ETL Prozessen, IBM Data Studio, SQuirreL SQL, DBVisualizer, Java, Jira, Linux, Windows, Shell
IBM DB2, SQL, Java (allg.)
3/2015 – 7/2017
Tätigkeitsbeschreibung
Installation, Kalibrieren und Konfiguration von Informatica Power Center 9.5.1 und 9.6.1 sowie Konfiguration von dessen Services auf AIX Maschinen. Katalogisieren von DB2 Datenbanken.
Installation, Konfiguration und Administration von Informatica Power Exchange
Administration und Verwaltung von Informatica Domains in Entwicklung, Test, Preprod und Produktionsumgebungen. Teilprojektleitung und Projektübergreifende Koordination der betrieblichen Tätigkeiten im Rahmen neuer Release und des Changemanagements, Hamonisierung und Standardisierung heterogenen Informatica Domains und Umgenungen. Entwicklung und Design eines Deployment-Framework für informatica PowerCenter im Produktionsumgebung
Meldewesen, SAPFIN, MPLR, Data Quality und Data Governance
IBM DB2, Informatica, IBM Aix, Red Hat Enterprise Linux (RHEL)
Ausbildung
TU-Berlin
TU-Berlin
Über mich
Persönliche Daten
- Kurdisch (Muttersprache)
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Persisch (Fließend)
- Russisch (Gut)
- Europäische Union
- Schweiz
- Vereinigte Staaten von Amerika
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden