Senior Data Engineer | Data Vault 2.0, Snowflake, Exasol, ETL/ELT, AWS/GCP
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 78050 Villingen-Schwenningen
- Weltweit
- de | tr | en
- 14.12.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
1/2023 – offen
Tätigkeitsbeschreibung
- Durchführung von detaillierten Anforderungsanalysen mit Business-Stakeholdern zur Identifikation von Datenintegrationsanforderungen.
- Erarbeitung von Schnittstellenkonzepten in enger Zusammenarbeit mit dem Kunden, um spezifische Anforderungen für PIM-, E-Commerce- und ERP-Systeme wie SAP und Salesforce zu erfüllen.
- Entwicklung von REST API Architekturen und leistungsstarken Data Pipelines, die eine effiziente Integration und Synchronisation komplexer Systemlandschaften ermöglichen.
Cloud Spezialist, IT-Berater, Datenanalyse, SQL, API-Entwickler, Python-Programmierer, Cloud Computing, System Design, Data Engineer, Amazon Web Services (AWS)
11/2022 – 12/2024
Tätigkeitsbeschreibung
- Zusammenarbeit mit Business-Stakeholdern zur Erfassung komplexer Anforderungen und deren Übersetzung in eine skalierbare Data Vault 2.0 Architektur.
- Modellierung des RAW- und Business Vaults im Exasol Data Warehouse unter Berücksichtigung von Data Vault 2.0 Prinzipien.
- Entwicklung und Integration von dbt-ähnlichen Technologien zur Datenbeladung aus BigQuery in das Data Warehouse.
- Erstellung von GCP Dataflow Pipelines zur effizienten Materialisierung und Delta-Beladung.
- Bereitstellung einer stabilen und skalierbaren GCP-Infrastruktur mittels Terraform, um die Automatisierung und Wartung zu optimieren.
Datenanalyse, Datenmodelierung, Requirement Analyse, BI-Spezialist Data Warehouse, Cloud Computing, Data Analyst, Data Vault, Data Warehousing, Datenbankentwicklung, Exasol, Google Cloud, Python, SQL
9/2022 – 12/2022
Tätigkeitsbeschreibung
- Entwicklung einer datengetriebenen Strategie mit einer Roadmap für die nächsten 10 Jahre in enger Zusammenarbeit mit der Geschäftsleitung und internationalen Ländergesellschaften.
- Planung und Durchführung von Workshops zur Definition von Anforderungen und Zielen für den Aufbau eines globalen Datenmodells.
- Erstellung eines Budgets und Ressourcenplans für die Umsetzung der im Strategiepapier definierten Projekte.
- Definition eines neuen Datenmodells für Vertriebs- und Produktdaten auf Basis von Data Vault 2.0 Prinzipien.
- Entwicklung einer globalen Technologie-Architektur, die vollständig mit der IT-Strategie des Unternehmens abgestimmt ist und den weltweiten Roll-out einer E-Commerce-Plattform unterstützt.
- Präsentation der Ergebnisse vor dem globalen Vorstand und Einholung der Freigabe für die nächsten Schritte.
IT-Berater, Data Warehousing, Datenanalyse, Data Vault, Datenmodelierung, Datenarchitekt, Agile Methodologie, Cloud Computing, IT-Strategieberatung
9/2016 – 8/2022
Tätigkeitsbeschreibung
Projekt: Aufbau einer Produkt-API mit Berechtigungskonzept
Aufgaben:
- Entwicklung eines technischen Konzepts für eine REST-API, um zentrale Produktdaten effizient und skalierbar bereitzustellen.
- Erstellung eines detaillierten Berechtigungskonzepts, um den Zugriff auf Produktdaten granular nach Benutzergruppen zu steuern.
- Definition der API-Endpunkte basierend auf den Anforderungen der Fachabteilungen und Erstellung einer umfassenden technischen Dokumentation.
- Koordination der Zusammenarbeit zwischen internen und externen Entwicklungsteams zur erfolgreichen Umsetzung des Projekts.
Ergebnisse:
- Implementierung einer REST-API, die eine zentrale Produktdatenverwaltung ermöglicht und die Datenintegrität sowie -sicherheit durch ein detailliertes Berechtigungskonzept gewährleistet.
- Verbesserung der Datenverfügbarkeit und Systemintegration für sämtliche Frontend-Systeme, wodurch die Effizienz in der Datenverarbeitung erheblich gesteigert wurde.
Projekt: Aufbau einer Real-Time ETL- und ELT-Pipeline zur Beladung des Data Warehouses
Aufgaben:
- Erstellung eines technischen Konzeptes.
- Aufbau eines gruppenweiten Enterprise Service Bus (ESB) Systems.
- Aufbau eines Apache Kafka Clusters mit AWS MSK.
- Programmierung der ETL-Pipelines zur Beladung des Data Lakes.
- Programmierung der ELT-Pipeline (SQL) zur Beladung der einzelnen Data Vault Stages.
Ergebnisse:
- Effiziente Integration von Daten aus ERP, PIM, MAM und CMS-Systemen in Real-Time in das Data Warehouse.
- Verbesserung der Datenverfügbarkeit und Aktualität für Analysezwecke durch automatisierte Pipelines.
Projekt: Auswahl und Implementierung einer Data Warehouse Technologie (Snowflake) und Aufbau des Datenmodells nach dem Data Vault 2.0 Prinzip
Aufgaben:
- Analyse der Anforderungen und Erstellung detaillierter Spezifikationen für die Auswahl der optimalen Data Warehouse Technologie.
- Definition einer Short-List von Technologien (Snowflake, Exasol, AWS Redshift) basierend auf Anforderungen wie Skalierbarkeit, Datensicherheit und Kosten.
- Erstellung von RFP-Dokumenten und Verhandlung von Lizenz- und Serviceverträgen mit potenziellen Anbietern.
- Planung und Durchführung von Workshops mit Fachabteilungen zur Definition der Business Cases und Datenanforderungen.
- Modellierung eines skalierbaren Datenmodells für Vertriebs- und Produktdaten nach Data Vault 2.0 Prinzipien, um zukünftige Erweiterungen zu erleichtern.
Ergebnisse:
- Erfolgreiche Implementierung von Snowflake als zentrale Data Warehouse Plattform, die die Grundlage für datengetriebene Entscheidungen bildet.
- Aufbau eines flexiblen und zukunftssicheren Datenmodells, das eine effiziente Integration neuer Daten-Domänen ermöglicht.
- Verbesserung der Datensicherheit und Ressourcennutzung durch dynamische Skalierungsmöglichkeiten der ausgewählten Technologie.
Projekt: Definition einer globalen Datenstruktur für redaktionelle Inhalte und Auswahl eines neuen Content Management Systems (CMS) inklusive Freigabeprozess
Aufgaben:
- Erstellung detaillierter Anforderungsspezifikationen für ein modernes, flexibles Content Management System.
- Definition einer Short-List für die Auswahl eines geeigneten Headless CMS (Contentful, Magnolia, Sitecore) basierend auf Flexibilität, Skalierbarkeit und Nutzerfreundlichkeit.
- Erstellung von RFP-Dokumenten und Verhandlung von Lizenz- und Serviceverträgen mit Anbietern.
- Planung und Durchführung von Requirement Workshops mit der Marketingabteilung zur Abstimmung der Anforderungen an die Content-Verwaltung.
- Entwicklung einer standardisierten Datenstruktur für unterschiedliche Arten redaktioneller Inhalte, einschließlich der Definition von Datentypen und Vorgabewerten.
Ergebnisse:
- Erfolgreiche Einführung eines Headless CMS, das die zentrale und globale Verwaltung redaktioneller Inhalte in mehreren Sprachen und Regionen ermöglicht.
- Implementierung einer globalen, standardisierten Datenstruktur, die die Effizienz und Automatisierung der Content-Verwaltung durch AWS Translate steigert.
- Optimierung des Freigabeprozesses durch klar definierte Richtlinien und standardisierte Workflows, die die Bearbeitungszeit signifikant verkürzen.
Projekt: Automatische Generierung von Länderpreislisten in 29 Sprachen
Aufgaben:
- Entwicklung eines technischen Konzepts für die automatisierte Erstellung von Länderpreislisten.
- Planung und Durchführung von Workshops mit Produktmanagement und Ländergesellschaften zur Definition von Layout- und Inhaltsanforderungen.
- Definition eines Freigabeprozesses, um die Qualität und Konsistenz der generierten Preislisten sicherzustellen.
- Programmierung eines Contentserv PHP-Moduls zur automatisierten Generierung von Tabellenlayouts für verschiedene Sprachversionen.
- Aufbau und Wartung der Serverinfrastruktur für den InDesign-Server-Cluster zur Sicherstellung der Systemstabilität und -leistung.
- Entwicklung einer ETL-Pipeline zur Konvertierung der Tabellenlayouts in XML-Tags und zur Generierung druckfertiger PDFs und InDesign-Dokumente mit automatischer Verschlagwortung im MAM-System.
- Koordination der Zusammenarbeit zwischen internen und externen Entwicklern, um eine nahtlose Umsetzung zu gewährleisten.
Ergebnisse:
- Reduzierung der Anzahl erforderlicher FTEs (Full-Time Equivalents) für die Erstellung der Preislisten von 4 auf 1, wodurch erhebliche Kosten eingespart wurden.
- Reduzierung der Bearbeitungszeit für die Erstellung von Länderpreislisten von 6 Wochen auf nur 1 Woche durch Automatisierung und optimierte Prozesse.
- Fehlerfreie und effiziente Generierung von Preislisten in 29 Sprachen, die manuelle Nacharbeiten überflüssig macht.
- Verbesserung der Workflows durch standardisierte Layouts und vollständig automatisierte Abläufe, was die Produktivität erheblich steigert.
Projekt: Automatische Übersetzung von neu angelegten Daten im PIM-System
Aufgaben:
- Erstellung eines technischen Konzepts für die Implementierung eines automatisierten Übersetzungsprozesses.
- Definition und Umsetzung eines Notification- und Freigabeprozesses zur effizienten Einbindung von Ländergesellschaften in den Übersetzungsworkflow.
- Entwicklung eines Contentserv PHP-Moduls zur Integration der AWS Translate API für automatische Übersetzungen.
Ergebnisse:
- Optimierung des Übersetzungsprozesses durch die Einführung automatisierter Vorübersetzungen mit AWS Translate, was die Übersetzungsdauer signifikant reduzierte.
- Effiziente Benachrichtigung und nahtlose Einbindung von Proofreadern in den Ländergesellschaften, um Übersetzungen zu überprüfen und freizugeben.
- Steigerung der Konsistenz und Qualität der Übersetzungen bei gleichzeitiger Minimierung des manuellen Arbeitsaufwands.
Projekt #8: Erstellen von Data Mappings für kundenspezifische Daten Exporte
Aufgaben:
- Entwicklung eines Mappings zur dynamischen Ableitung kundenspezifischer Daten und spezifischer Wordings aus bestehenden Systemen, ohne die ursprünglichen Daten zu verändern.
- Erstellung einer zentralisierten Lösung zur Bereitstellung der Datenexporte über ein Exportportal.
- Implementierung von Klassifizierungs- und Exportformaten wie ARGE CSV, FABDIS, FESAH/2BA und Ferguson, um unterschiedliche Kundenanforderungen zu unterstützen.
- Abstimmung mit E-Commerce-Kunden, Ländergesellschaften und Branchenverbänden zur Definition spezifischer Exportanforderungen.
Ergebnisse:
- Effiziente und fehlerfreie Bereitstellung kundenspezifischer Datenexporte, die vollständig auf individuellen Anforderungen basieren, ohne zusätzliche Pflegeaufwände in den bestehenden Systemen.
- Standardisierung der Prozesse und Mappings, was die Datenbereitstellung für E-Commerce-Händler und Verbände erheblich verbessert und manuelle Eingriffe minimiert.
Projekt: Aufbau eines Portals für den Export von Produktdaten
Aufgaben:
- Planung und Durchführung von Requirement Workshops mit internen Stakeholdern sowie Großhandels-, E-Commerce-Kunden und Branchenverbänden aus Deutschland, Frankreich, USA und China, um Anforderungen an das Exportportal zu definieren.
- Auswahl geeigneter Technologien und Entwicklung eines technischen Konzepts für die Implementierung eines flexiblen und skalierbaren Portals.
- Führung interner und externer Entwicklungsteams zur nahtlosen Umsetzung der Projektanforderungen.
- Einführung der agilen Projektmanagementmethode SCRUM, einschließlich der Schulung aller Projektbeteiligten, der Erstellung des Backlogs und der Planung der Sprints.
- Definition einer effizienten Datenstruktur innerhalb des Elasticsearch Clusters zur Unterstützung dynamischer Abfragen.
- Entwicklung einer ETL-Pipeline zur Datenintegration zwischen Apache Cassandra und Elasticsearch, um eine konsistente und schnelle Datenbereitstellung zu gewährleisten.
Ergebnisse:
- Erfolgreicher Aufbau eines benutzerfreundlichen Portals für den Export von Produktdaten und zugehörigen Assets, das flexible Filtermöglichkeiten nach Produkten, Gruppen und Attributen bietet.
- Bereitstellung von Datenexporten in 29 Sprachen und mehreren Formaten (CSV, XLSX, XML/BMEcat), die internationale Anforderungen abdecken.
- Optimierung der Datenverfügbarkeit und Effizienz, wodurch internationale Kunden und Verbände schneller und gezielter auf benötigte Daten zugreifen können.
Projekt: Erstellen einer Data-Pipeline zwischen AS400 ERP und PIM-System Contentserv
Aufgaben:
- Entwicklung von ETL-Jobs zur Extraktion von Produkt- und Vertriebsdaten aus der IBM DB2 Datenbank, deren Transformation und Import in die MySQL-Datenbank des Contentserv PIM-Systems.
- Implementierung eines Delta-Checks, um sicherzustellen, dass nur neue oder geänderte Daten verarbeitet werden, wodurch die Effizienz und Verarbeitungsgeschwindigkeit gesteigert wurden.
- Erstellung eines detaillierten Reporting-Tools, das die Anzahl der neu hinzugefügten oder aktualisierten Produkte und Länderpreise transparent darstellt.
Ergebnisse:
- Effiziente und vollständig automatisierte Synchronisation von Produkt- und Länderpreisdaten zwischen AS400 ERP und dem Contentserv PIM-System, was die manuelle Dateneingabe überflüssig machte.
- Verbesserung der Datenqualität und Nachverfolgbarkeit durch den Delta-Check und transparente Berichte über alle Änderungen.
- Signifikante Reduktion von Datenfehlern und Verbesserung der Prozesssicherheit in der täglichen Datenverarbeitung.
Projekt: Auswahl und Implementierung eines neuen PIM- und MAM-Systems
Aufgaben:
- Erstellung detaillierter Anforderungsspezifikationen zur Evaluierung eines neuen PIM- und MAM-Systems.
- Definition einer Long- und Short-List potenzieller Systeme und Implementierungspartner basierend auf den Anforderungen an Flexibilität und Skalierbarkeit.
- Erstellung von RFP-Dokumenten und Verhandlung von Lizenz- und Serviceverträgen mit ausgewählten Anbietern.
- Aufbau einer robusten Serverinfrastruktur und Einrichtung der UNIX-Server zur Unterstützung des neuen Systems.
- Definition und Implementierung von standardisierten Anlage- und Bearbeitungsprozessen in enger Zusammenarbeit mit dem Data Governance Board.
- Implementierung der Produktdatenstruktur und globaler Datenrichtlinien, um eine konsistente und effiziente Datenverwaltung zu gewährleisten.
- Entwicklung von Schulungsvideos und Durchführung von internationalen Schulungen für Key-User, um eine schnelle Einführung und Akzeptanz zu fördern.
Ergebnisse:
- Erfolgreiche Einführung eines flexiblen und leistungsstarken PIM- und MAM-Systems, das die strategischen Ziele der Datenbereitstellung und Skalierbarkeit optimal unterstützt.
- Verbesserung der Datenqualität und der Verwaltungsprozesse durch standardisierte Workflows und globale Richtlinien, was die Betriebseffizienz erheblich steigert.
Projekt: Auswahl und Implementierung der Data Integration Technologie (Talend Data Services)
Aufgaben:
- Erstellung detaillierter Anforderungsspezifikationen zur Evaluierung einer geeigneten Data Integration Technologie.
- Definition einer Short-List potenzieller Technologien basierend auf Kriterien wie Benutzerfreundlichkeit, Skalierbarkeit und Integration.
- Erstellung von RFP-Dokumenten sowie Verhandlung und Abschluss von Lizenz- und Serviceverträgen mit dem ausgewählten Anbieter.
- Aufbau einer leistungsfähigen Serverinfrastruktur für die Talend Management Console und Execution Server sowie einer Clientinfrastruktur für Talend Studio.
- Entwicklung und Durchführung von Schulungsprogrammen für neue Mitarbeiter und Quereinsteiger, einschließlich Frontend-Entwickler, um die Nutzung der Technologie effizient zu gestalten.
Ergebnisse:
- Erfolgreiche Einführung von Talend Data Services, das als benutzerfreundliche Data Integration Plattform einen schnellen Start und eine reibungslose Implementierung ermöglichte.
- Signifikante Reduzierung der Einarbeitungszeit für neue Mitarbeiter und Quereinsteiger dank einer intuitiven Infrastruktur und praxisnahen Schulungen.
Projekt: Definition einer globalen Produktdatenstruktur
Aufgaben:
- Planung und Durchführung von Requirement Workshops mit internen Stakeholdern sowie Großhandels-, E-Commerce-Kunden und Branchenverbänden aus Deutschland, Frankreich, USA und China, um Anforderungen an die Produktdatenstruktur zu erheben.
- Entwicklung einer standardisierten Produktdatenstruktur, die alle Produktgruppen abdeckt und sowohl interne als auch externe Anforderungen berücksichtigt.
- Definition von Datentypen und Vorgabewerten für jedes Attribut, um Konsistenz und Qualität der Daten sicherzustellen.
Ergebnisse:
- Erstellung einer globalen, systemunabhängigen Produktdatenstruktur, die sowohl interne Geschäftsanforderungen als auch die Bedürfnisse internationaler Kunden abdeckt.
- Ermöglichung der nahtlosen Integration der Produktdatenstruktur in bestehende Systeme wie AS400, PIM und CMS sowie zukünftige Plattformen wie SAP S4/Hana, 3DExperience und Snowflake Data Warehouse.
- Signifikante Verbesserung der Datenqualität und Flexibilität durch klare Standards und einfache Erweiterbarkeit für neue Anforderungen.
Projekt: Aufbau eines Data Governance Frameworks
Aufgaben:
- Definition und Etablierung eines Data Governance Boards zur standardisierten Bewertung neuer Datenanforderungen und zur Festlegung klarer Verantwortlichkeiten.
- Entwicklung einer globalen Datenrichtlinie mit spezifischen Vorgaben für Datenqualität, Zugriff, Sicherheit, Datenschutz und Datennutzung.
- Analyse und Optimierung bestehender Prozesse in den Bereichen Einkauf, Produktentwicklung, Vertrieb und Marketing, um Datenflüsse effizienter zu gestalten.
- Implementierung der RASCI-Methode zur systematischen Analyse und Darstellung von Prozessen und Verantwortlichkeiten.
- Erstellung detaillierter Rollenbeschreibungen für die neu geschaffene Organisationsstruktur und Begleitung des Recruiting-Prozesses zur Besetzung dieser Rollen.
- Einführung eines Data Catalog Systems (Talend Data Catalog), um Transparenz über vorhandene Daten, Quellsysteme und Verantwortlichkeiten zu schaffen.
Ergebnisse:
- Schaffung eines globalen und standardisierten Data Governance Frameworks, das schnelle und fundierte Entscheidungen durch klare Prozesse und Verantwortlichkeiten ermöglicht.
- Optimierung und Transparenz der Datenverwaltung durch die Einführung des Data Catalog Systems, das eine bessere Datenübersicht und ein einheitliches Verständnis der Daten sicherstellt.
- Verbesserung der Effizienz und Zusammenarbeit durch eine klare Organisationsstruktur und optimierte Prozesse.
Projekt: Erarbeiten einer Datenstrategie und Aufbau einer Datenorganisation
Aufgaben:
- Entwicklung einer datengetriebenen Strategie mit einer langfristigen Roadmap in enger Zusammenarbeit mit Vorstand und Top-Management.
- Planung und Durchführung von Workshops zur Identifikation und Priorisierung von Datenanforderungen und strategischen Zielen.
- Erstellung eines detaillierten Budgets und Ressourcenplans zur Umsetzung der im Strategiepapier definierten Projekte.
- Definition einer schlüssigen Datenorganisationsstruktur, die klare Verantwortlichkeiten und effiziente Prozesse unterstützt.
- Regelmäßige Erstellung von Präsentationen zum Fortschritt der Umsetzung sowie Entscheidungsgrundlagen für das Management auf quartalsweiser Basis.
Ergebnisse:
- Entwicklung einer klaren und zukunftsorientierten Datenstrategie, die sich direkt aus der Unternehmensstrategie ableitet und die nächsten 10 Jahre abdeckt.
- Erfolgreiche Definition und Implementierung einer Datenorganisationsstruktur, die die Umsetzung datengetriebener Projekte erleichtert.
- Auswahl eines passenden Cloud-Anbieters zur Unterstützung der strategischen Ziele, was Skalierbarkeit und Effizienz sicherstellt.
BI-Spezialist Data Warehouse, IT-Berater, Apache Kafka, Data Vault, SQL, Teamleiter IT, API-Entwickler, PHP-Entwickler, SQL Entwickler, Projektmanagement (IT), Snowflake, System Architektur, Data Analyst, Amazon Web Services (AWS), Json, Representational State Transfer (REST), Requirements Engineer
4/2010 – 8/2016
Tätigkeitsbeschreibung
Projekt: Erstellen von Variantendatenblättern in 30 Sprachen
Aufgaben:
- Planung und Durchführung von Layout-Workshops mit Vertrieb und Marketing zur Definition von Anforderungen an die Datenblätter.
- Entwicklung von Layouts für Variantendatenblätter in InDesign, um einheitliche und professionelle Designs zu gewährleisten.
- Aufbau einer Datenlogik in XML/XSD, die alle Konfigurationsausnahmen berücksichtigt und die Automatisierung ermöglicht.
- Implementierung einer ETL-Pipeline zwischen Contentserv PIM und InBetween zur automatisierten Generierung von PDF- und InDesign-Dokumenten.
Ergebnisse:
- Effiziente Erstellung von Variantendatenblättern in 30 Sprachen, die sämtliche Konfigurationsvarianten abdecken und den manuellen Aufwand minimieren.
- Verbesserung der Datenverfügbarkeit und Qualität durch Automatisierung der Prozesse und klare Definitionen in der Datenlogik.
Projekt: Aufbau des SAP R/3 Varianten Konfigurators und Ausleitung der Daten in das PIM und auf die Webseite
Aufgaben:
- Entwicklung einer ETL-Pipeline zur Datenintegration zwischen dem Variantenkonfigurationstool Encoway und dem Contentserv PIM-System.
- Integration der Variantenkonfiguration in die bestehende Produktdatenstruktur, um eine konsistente Datenverwaltung zu gewährleisten.
- Implementierung einer weiteren ETL-Pipeline zwischen Contentserv PIM und Typo3 CMS zur Sicherstellung der Datenbereitstellung für das Content-Management-System.
- Darstellung der Variantenkonfiguration im Web-Frontend durch die Entwicklung einer benutzerfreundlichen Oberfläche mit Angular.
Ergebnisse:
- Erfolgreicher Aufbau der Variantenlogik im SAP R/3 System mit nahtloser Integration in das Contentserv PIM und die Unternehmenswebseite.
- Signifikante Verbesserung der Benutzererfahrung durch die Darstellung eines flexiblen Variantenkonfigurators im Web-Frontend, was die Auswahl und Bestellung für Kunden erleichtert hat.
Projekt: Relaunch der Webseite für 20 Ländergesellschaften in 30 Sprachen
Aufgaben:
- Auswahl und Steuerung einer neuen Partneragentur zur Entwicklung und Umsetzung eines umfassenden Webseiten-Konzepts mit Unterstützung für Länder- und Sprachvarianten.
- Planung und Durchführung von Workshops mit internen Stakeholdern zur Konzeption einer nutzerfreundlichen und funktionsreichen Webseite.
- Erstellung eines detaillierten Plans für Budget, Zeit und Ressourcen, um eine termingerechte und kosteneffiziente Umsetzung zu gewährleisten.
- Aufbau einer skalierbaren Infrastruktur, die den Anforderungen von 20 Ländergesellschaften und 30 Sprachversionen gerecht wird.
- Entwicklung von Schulungsunterlagen und Durchführung von Schulungen für internationale Redakteure, um die Inhalte effektiv verwalten zu können.
Ergebnisse:
- Erfolgreicher Relaunch der Webseite mit einem erweiterten Funktionsumfang, der 30 Sprachen und 20 Ländervarianten unterstützt.
- Verbesserte Nutzerfreundlichkeit und Funktionalität durch die Einführung eines Produktselektors, eines Login-Bereichs, eines Download-Centers und einer Merkzettel-Funktion, wodurch die Benutzererfahrung erheblich optimiert wurde.
Projekt: Auswahl und Implementierung eines neuen PIM- und MAM-Systems
Aufgaben:
- Erstellung detaillierter Anforderungsspezifikationen, um die Anforderungen an ein neues PIM- und MAM-System zu definieren.
- Definition einer Long- und Short-List potenzieller Systeme und Implementierungspartner basierend auf Kriterien wie Flexibilität, Benutzerfreundlichkeit und Skalierbarkeit.
- Erstellung von RFP-Dokumenten und Verhandlung von Lizenz- und Serviceverträgen mit ausgewählten Anbietern.
- Aufbau einer stabilen Serverinfrastruktur und Einrichtung der UNIX-Server zur Unterstützung des neuen Systems.
- Implementierung der Produktdatenstruktur, um die Konsistenz und Qualität der Daten zu gewährleisten.
- Entwicklung von Schulungsunterlagen und Durchführung von internationalen Schulungen für Key-User, um eine effektive Nutzung des Systems sicherzustellen.
Ergebnisse:
- Erfolgreiche Einführung eines flexiblen und benutzerfreundlichen PIM- und MAM-Systems, das die Verwaltung von Produkt- und Mediendaten deutlich optimiert.
- Signifikante Verbesserung der Datenqualität und der Effizienz der Datenverwaltung durch eine strukturierte Implementierung und umfassende Schulungen für internationale Benutzer.
Projekt: Definition einer globalen Produktdatenstruktur
Aufgaben:
- Planung und Durchführung von Requirement Workshops mit internen Stakeholdern zur Erhebung der Anforderungen an die Produktdatenstruktur.
- Entwicklung einer standardisierten Produktdatenstruktur, die sämtliche Produktgruppen und ihre spezifischen Attribute abdeckt.
- Festlegung von Datentypen und Vorgabewerten für jedes Attribut, um Konsistenz und Qualität in der Datenverwaltung sicherzustellen.
Ergebnisse:
- Erstellung einer globalen Produktdatenstruktur, die interne Geschäftsanforderungen erfüllt und sowohl für Online- als auch für Print-Ausgabemedien optimiert ist.
- Signifikante Verbesserung der Datenqualität und Konsistenz durch klare Definitionen und standardisierte Vorgaben, wodurch die Effizienz in der Datenverwaltung gesteigert wurde.
Projekt: Auswahl und Implementierung eines Kampagnenmanagement Tools (Evalanche) mit Anbindung an SAP CRM
Aufgaben:
- Planung und Durchführung von Requirement Workshops mit internen Stakeholdern zur Entwicklung eines innovativen Kampagnenkonzepts, das auf die Unternehmensbedürfnisse abgestimmt ist.
- Erstellung detaillierter Anforderungsspezifikationen zur Evaluierung geeigneter Kampagnenmanagement Tools.
- Definition einer Long- und Short-List für potenzielle Systeme und Implementierungspartner basierend auf Flexibilität, Integration und Benutzerfreundlichkeit.
- Erstellung von RFP-Dokumenten sowie Verhandlung und Abschluss von Lizenz- und Serviceverträgen mit dem ausgewählten Anbieter.
- Definition einer neuen Kampagnenstruktur, die standardisierte Prozesse und effiziente Workflows ermöglicht.
- Entwicklung einer bidirektionalen ETL-Pipeline zwischen SAP CRM und Evalanche, um den Datenaustausch zu automatisieren und die Synchronisation zu gewährleisten.
Ergebnisse:
- Erfolgreiche Einführung von Evalanche als Kampagnenmanagement Tool, das die Versendung von Onlinenewslettern und das Kampagnenmanagement optimiert.
- Nahtlose Integration von Evalanche in SAP CRM, wodurch der Datenaustausch automatisiert und die Datenqualität erheblich verbessert wurde.
- Optimierung der Kampagnenstruktur und Effizienz durch standardisierte Prozesse, was die Umsetzung datengetriebener Marketingstrategien erleichtert hat.
Amazon Web Services (AWS), API-Entwickler, BI-Spezialist Data Warehouse, Datenmodelierung, IT-Berater, IT-Projektleiter, Projektmanagement (IT), Representational State Transfer (REST), SAP R/3, SQL, SQL Entwickler, System Architektur, Teamleiter IT, Typo3
Zertifikate
Ausbildung
Heidelberg
Über mich
Ich bin bekannt für meine Fähigkeit, mich schnell in neue Technologien und Themenbereiche einzuarbeiten, sowie für meine transparente und offene Kommunikation. Meine positive Einstellung – für mich ist das Glas immer halb voll – und meine Fähigkeit, kritisch zu hinterfragen, schaffen eine motivierende und produktive Arbeitsatmosphäre.
Als Experte für Data Vault 2.0, Snowflake, Exasol sowie für die Entwicklung und Optimierung von ETL/ELT-Pipelines mit Python, SQL und modernen Cloud-Technologien wie AWS (Lambda, S3, API-Gateway) und GCP (Dataflow, Pub/Sub, BigQuery) bringe ich technisches Fachwissen und Führungskompetenz zusammen. Meine Erfahrung in der Automatisierung von Infrastruktur mit Terraform und der Implementierung serverloser Architekturen rundet mein Profil ab.
Als teamorientierte Persönlichkeit gehe ich auf die unterschiedlichsten Charaktere ein und motiviere mein Umfeld, gemeinsam Höchstleistungen zu erreichen. Offenheit für Neues und eine ehrliche Herangehensweise prägen meinen Arbeitsstil und machen mich zu einem verlässlichen Partner für komplexe, datengetriebene Projekte.
Weitere Kenntnisse
Data Warehouse: Snowflake, Exasol, BigQuery
Cloud-Technologien: AWS (Lambda, S3, API Gateway, Secrets Manager), GCP (Dataflow, Pub/Sub, BigQuery)
ETL/ELT-Prozesse: Python, SQL, dbt
Infrastruktur und Automatisierung: Terraform, CI/CD, Serverless Architekturen
Datenbanken: MySQL, IBM DB2, PostgreSQL, Elasticsearch, Apache Cassandra
Programmiersprachen: Python, SQL, Java
Projektmethoden: SCRUM, Kanban, RASCI-Methode
Persönliche Daten
- Deutsch (Muttersprache)
- Türkisch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden