(agile) Requirements Engineer, Data Engineer, (Big) Data Analyst, DataOps, Data Solution Architect
- Verfügbarkeit einsehen
- 0 Referenzen
- auf Anfrage
- 61231 Bad Nauheim
- Weltweit
- de | en
- 13.12.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
3/2023 – offen
Tätigkeitsbeschreibung
• Ermittlung von möglichen Optimierungen der vorhandenen Data Flow
Komponente zur Verarbeitung von unstrukturierten und semi-
strukturierten Massendaten
• Planung und Umsetzungsbegleitung der Änderungen
• Erarbeitung einer alternativen Infrastruktur, wie beispielsweise
Virtualisierung oder Containerisierung (Kubernetes)
• Einführung von Infrastructure as Code (IaC) zur Automatisierung der
neuen Umgebungen
Big Data, Engineering data management (EDM), Solution Architektur
10/2022 – 3/2023
Tätigkeitsbeschreibung
- Durchführung System- und Prozessanalyse zur Identifikation von nicht optimalen Abläufen und Systemnutzungen
- Beratung bei der Ausrichtung der zukünftigen Architektur
- allgemeine Beratung zu Data Management
Requirements Management, Architekturvisualisierung, Prozessoptimierung, Solution Architektur, System Analyse, UML
10/2022 – 12/2022
TätigkeitsbeschreibungOptimierung und Konzeptionierung des Azure Cloud Data Warehouses
Eingesetzte QualifikationenDatabricks, Azure Synapse Analytics, Microsoft SQL-Server (MS SQL), Solution Architektur
8/2022 – 12/2022
TätigkeitsbeschreibungProduct Owner und Solution Architect zum Aufbau einer Data Platform
Eingesetzte QualifikationenBig Data, Kubernetes, Product Owner, Solution Architektur
5/2022 – 6/2023
Tätigkeitsbeschreibung
- Erarbeitung einer organisatorischen und technologischen Landkarte (Prozesse, Methoden, Infrastruktur, Technologie, Tool) zur vorbereitenden Umsetzung eines Data Mesh (Data as a Product, Domain and Data Ownership, Federated Computational (Data) Governance, Self-Serve Data Platform)
- Ausarbeitung einer Strategie zur Optimierung unternehmensweiter, datenzentrierter Prozesse
- Analyse der Entwicklungs- und Modellierungsprozesse
- ...
Architekturvisualisierung, Big Data, Change Management, Solution Architektur
1/2022 – 6/2022
TätigkeitsbeschreibungOptimierung der bestehender Datenarchitektur zur Verarbeitung und Analyse von Sensordaten (autonomes Fahren)
Eingesetzte QualifikationenBig Data, Infrastrukturarchitektur, Solution Architektur
12/2021 – 12/2022
TätigkeitsbeschreibungAusarbeitung der Datenstrategie und Entwicklung einer cloud-basierten Data Analytics Plattform
Eingesetzte QualifikationenDatabricks, Azure Synapse Analytics, Data Warehousing, Microsoft Azure, Requirement Analyse, Software Architecture
4/2021 – 12/2021
TätigkeitsbeschreibungKonzeption einer cloud-basierten Data Analytics Plattform
Eingesetzte QualifikationenDatabricks, Azure Synapse Analytics, Big Data, Data Warehousing, Microsoft Azure
4/2021 – 12/2021
TätigkeitsbeschreibungKonzeption einer cloud-basierten Data Analytics Plattform
Eingesetzte QualifikationenDatabricks
4/2021 – 12/2021
TätigkeitsbeschreibungErarbeitung einer (hybriden) Multi-Cloud-Strategie
Eingesetzte QualifikationenAmazon Web Services (AWS), Cloud (allg.), Cloud Computing, Microsoft Azure, Solution Architektur
1/2021 – 6/2021
TätigkeitsbeschreibungApplication Architect
Eingesetzte QualifikationenData Warehousing, Software Architecture, Software engineering / -technik
9/2020 – 12/2020
Tätigkeitsbeschreibung
Ausarbeitung einer Architektur für den Aufbau eines Data Lakes und einer Data
Analytics Plattform
Amazon Web Services (AWS), Big Data, Cloud Computing, DevOps (allg.), Schulung / Training (IT), Software Architecture
6/2020 – offen
Tätigkeitsbeschreibung
• Analyse / Bestandsaufnahme der bestehenden Datenbanksysteme
• Ausarbeitung von möglichen Optimierungspotenzialen
• Aufbau von Datenbank-Clustern (MariaDB Galera Cluster mit Maxscale)
zur Verbesserung der Stabilität und Upgradefähigkeit
• Entwicklung synthetischer Abläufe für Lasttest und Stabilitätsmessungen
Ansible, Administration von Datenbanken, Datenbankentwicklung, Mariadb, System Analyse
1/2020 – 5/2020
Tätigkeitsbeschreibung
• Analyse und Dokumentation der Anforderungen
• Erstellung und Abstimmung der Komponentenarchitektur
• Festlegung entsprechender Container zur Komponenten-Gruppierung
• Kalkulation und Skalierung der Infrastruktur pro Container
• Entwicklung Proof of Concept (PoC) zur Validierung der Anforderungen
• Erstellung Blueprint zum Aufbau der Umgebung (Infrastructure as Code)
• Tool-Evaluierung für
◦ Data Flow & Data Processing (Apache Nifi, Apache Airflow, Prefect)
◦ Orchestration & Execution (Kubernetes, Docker, FaaS, Microservices)
Big Data, Datenanalyse, Software Architecture, Cloud (allg.), Schulung / Training (IT), Proof of Concept (POC)
10/2019 – 6/2022
Tätigkeitsbeschreibung
• Vorstellung Datenmodellierungsmethoden und deren Werkzeuge
• Training der Modellierungs- und Umsetzungsteams
• Ausarbeitung von Blueprints und Principals der Datenmodellierung
• Integration der Artefakte in operative Systeme
Agile Methodologie, Schulung / Training (IT), Software Architecture
10/2019 – 6/2020
Tätigkeitsbeschreibung
• Beratung und Training des Inhouse-Teams im Bereich Data Engineering
und Daten(-bank)-Design
• Optimierung, Fehler- & Performanceanalyse der Bestands- und
Entwicklungssysteme (Datenmodelle, Aufbau und Nutzung Indizes, etc.)
• Deployment/Versionierung von Datenbanken, Konzeption/Strategie
Backup, Konzeption/Durchführung Datenbank-Migration
• Nutzung verteilter Datenbanksysteme (Cluster) in Bezug auf Performance,
Redundanz, Sicherheit (MariaDB Galera Cluster)
• Unterstützung und Durchführung Oracle DB Migration
• Vorstellung von Big Data Technologien zur Unterstützung bei
Datenanalysen
Datenbankentwicklung, Mariadb, Mysql, Oracle Database, SQL, Schulung / Training (IT)
1/2019 – 3/2019
Tätigkeitsbeschreibung
• Training agiler Methoden und wichtiger Werte agiler Entwicklung
• Erarbeitung essentieller Artefakte (DoR, DoD)
• Train the Trainer für Product Owner und Scrum Master
• Aufbau Methoden, Werkzeuge und Strukturen
Agile Methodologie, Scrum, Schulung / Training (IT)
1/2018 – 6/2019
Tätigkeitsbeschreibung
• Analyse der Anforderungen und Daten
• Aufbau eines Architektur-Blueprints für Speicherung (Storage, Data Lake)
und Auswertung (Compute, Analytics) in der Cloud (Multi-Cloud-Strategie:
Amazon AWS, Microsoft Azure)
• Auswahl einer Toolchain (Hadoop, HDFS, HBase, Parquet, Dremio, AWS
S3, NiFi, Kafka, Python, Jupyter, Collibra) unter Berücksichtigung des zu
analysierenden Datenvolumens und der notwendigen
Schutzbedarfsanforderungen (Data Security, Data Governance) (DataOps)
• Abstimmung der Architektur mit essentiellen Stakeholdern (Management,
Projektleitung, Enterprise Architektur, Strategieabteilungen, ...)
• Aufbau der Umgebungen mittels Infrastructure as Code in der AWS Cloud
(DevOps, Ansible), Monitoring der Verfügbarkeit (Prometheus/Grafana)
• Design, Entwicklung und Best Practices für den Aufbau von Microservices
(mathematische Modelle) inkl. Continous Integration (CI, Jenkins) und
Continous Deployment (CD, Ansible)
• Orchestrierung, Registrierung und Bereitstellung von Funktionen und
Microservices (Kubernetes, FaaS, Lambda, Nomad, Consul, Tyk)
• Einführung von Best Practices zur Nutzung der Analytics Cluster und Entwicklungsumgebungen
• (Leistungs-)Vergleich: Cloud Native vs. Cloud Infrastructure vs. On-
Premise vs. Hybrid, Function as a Service (FaaS) vs. Orchestrierung
Microservices, Container Orchestrierung
Big Data, Datenanalyse, DevOps (allg.), Maschinelles Lernen, Software Architecture, Cloud (allg.), Amazon Web Services (AWS), Kubernetes, Schulung / Training (IT)
10/2017 – 6/2018
Tätigkeitsbeschreibung
• Data Analytics Prozesse
• Data Engineering
• Data Analytics, Data Science, Data Mining, Advanced Analytics, Machine
Learning, Deep Learning
• Software-Verteilung, Versionsverwaltung, Continous Integration,
Infrastructure as Code
• Data Virtualization
• Data Security, Data Governance
• Nutzung der Plattform in (Micro-)Services und Function as a Service
(FaaS)
• Kostenvergleich: Cloud vs. Hybrid vs. On-Premise
Big Data, Data Mining, Datenanalyse, Objekterkennung, Software Architecture, Cloud (allg.), Cloud Computing, Schulung / Training (IT)
10/2017 – 12/2017
Tätigkeitsbeschreibung
agile Coach / SCRUM Master: Big Data Analytics Plattform:
• Coaching des agilen Entwicklungsteams
• Unterstützung bei der Definition von SCRUM Artefakten (DoR, DoD)
• agile Requirements Engineering und Unterstützung der Product Owner bei
der Definition von User Stories
Projektkoordination:
• Planung und Leitung von Workshops mit Kunden (Nationalbanken)
• Abstimmung mit externen Dienstleistern
Datenanalyse, Agile Methodologie, Scrum, Schulung / Training (IT)
10/2016 – 9/2017
Tätigkeitsbeschreibung
Data Engineer und agile Requirements Engineer für Big Data Advanced Analytics:
• Bereitstellung der Big Data Infrastruktur auf Basis von Apache Hadoop
Technologien (Hadoop, Hive, HBase, Phoenix, Spark, NiFi, Kafka) und
Python Data Analytics (Jupyter, Pandas)
• Aufbau: Data Lake und Data Analytics Platform (DevOps, Ansible)
• Vergleich: Cloud Native vs. Distribution vs. Vendor Packages
• Last- und Performancemessung zur Validierung der gewählten Produkte
und eingesetzten Analyse-Methoden; nachfolgendes Monitoring der
Umgebungen via Prometheus/Grafana, ElasticSearch/Kibana
• Analyse und Design der Daten und Datenmodelle, analytische
Auswertungen und Realtime-Analysen
• Cloud Services: Amazon Web Services AWS
• Infrastructure as a Service (IaaS), Software as a Service (SaaS)
• Cloud Storage: Amazon S3
Product Owner für Reisendeninformationen:
• übergreifende Anforderungsabstimmung im Projekt und im Programm
• Erstellung von Features und User Stories für Sprint Planung und
Durchführung (Scaled Agile)
• zentraler Ansprechpartner für das Entwicklungsteam
Big Data, Data Mining, Datenanalyse, Agile Methodologie, Scrum, Software Architecture, Product Owner, Projektleitung / Teamleitung
4/2016 – 9/2016
Tätigkeitsbeschreibung
IT-Projektmanager für Grobkonzept zur Konsolidierung der Kunden-Stammdaten-Systeme:
• Projektplanung und -koordination
• Stakeholder Analyse
• Moderation von Workshops: Change Management und Requirements
Engineering
• System- und Schnittstellenanalyse zur Ermittlung der Anforderungen der
Umsysteme
• Datenanalyse und -modellierung zur Erweiterung des Datenmodells
• Erarbeitung des Architektur-Zielbildes für die Erweiterung der
Bestandsanwendung
• Kostenkalkulation zur Budgetierung der Umsetzung in nachfolgender agiler
Software-Entwicklung
agile Requirements Engineering for Data Management / Big Data:
• Unterstützung bei der Auswahl der möglichen Datenbank-Systeme zur
zukünftigen Speicherung und Analyse der konsolidierten Kunden-
Stammdaten
Projektmanagement (IT), Software Architecture, Schnittstellenentwicklung, Requirement Analyse
1/2014 – 3/2016
Tätigkeitsbeschreibung
• Strategische und technische Weiterentwicklung des aktuellen
Produktportfolios (in Zusammenarbeit mit dem Team) der Product Information Management Suite
• Begleitung der Veränderungen im Unternehmen (Change Management)
• Überwachung der Planung und Durchführung von Kundenprojekten
• Unterstützung der Zusammenarbeit der Teams an unterschiedlichen
Standorten (Deutschland, Österreich) in gemeinsamen Kunden- und
Entwicklungsprojekten, Erkennung und Realisierung von Synergieeffekten
• Unterstützung der vertrieblichen Aktivitäten sowie des angestrebten
Wachstums durch technische Hilfestellung, Analyse und Beratung
• Disziplinarische und fachliche Führung der Bereiche Softwareentwicklung,
Support und Professional Service (bis zu 35 Mitarbeiter an zwei
Standorten)
Realisierung folgender Schwerpunkt-Themen:
• Einführung agile Software-Entwicklung
• Einführung leichtgewichtige, skalierbare Architektur
• Einführung Coding Culture
• Einführung Testautomation
• Aufbau und Leitung des Architekturteams
• Releaseplanung und -koordination
• Projektmanagement
Agile Methodologie, Kanban (Softwareentwicklung), Projektleitung / Teamleitung (IT), Scrum, Produktmanagement, Product Information Management
4/2012 – 3/2014
Tätigkeitsbeschreibung
Analyse der Daten (Data Analytics of structured and unstructured Data), Prozesse
und Anforderungen zum Aufbau eines Customer Data Management Systems für
das Corporate Banking und Investment Banking
(Teil-)Projektleitung der Umsysteme „BetreuungsVerbund“ und Customer
Relationship Management (CRM)
Schwerpunkte sind die Analyse und das Design folgender Bereiche:
a) Datenmodellierung
b) Suchtechnologien
c) Securitykonzept
d) Batchverarbeitung
e) Error-Handling
f) Verbundstrukturen (Betreuung, Finance, Risk, ...)
g) Web Services, Service Oriented Architecture
h) Anbindung der Auslandseinheiten
CRM Beratung (allg.), Software Architecture, Requirement Analyse, Business Analysis, CRM (Customer Relationship Management), Corporate Security
10/2011 – 3/2012
Tätigkeitsbeschreibung
Anforderungsanalyse verschiedener Fachbereiche zu dem Kundendatenmodell
der Zukunft, Modellierung des fachlichen Objektmodells zur Abstimmung:
a) Partner, Kunden und Interessenten
b) Ansprechpartner, Mitarbeiter
b) Adressen (postalisch, elektronisch)
c) Kundenhierarchien
d) Dubletten und deren Zusammenführung
e) Produkte, Aufträge
CRM Beratung (allg.), Software Architecture, Requirement Analyse
Zertifikate
Ausbildung
Soest
Über mich
Als Trainer und Solution Architekt für Big Data Technologien, Advanced Analytics Methoden und agiler Entwicklung kombiniere ich technologisches Know How (beispielsweise zu Amazon AWS, Microsoft Azure, Kubernetes, FaaS, (Micro-)Services)) mit wichtigen Soft Skills (wie z.B. Agilität, Teamfähigkeit, Kreativität, Analytische Kompetenz), um Lösungen nutzbar und erlebbar zu machen.
Im Bereich Data Management liegt mein Schwerpunkt, neben der effizienten Nutzung von Systemen, in der einfachen Verwendung von Technologien zur Daten-Virtualisierung, -Exploration und -Visualisierung und der Operationalierung, sowohl von Infrastruktur, wie auch Daten und Modellen (DevOps, DataOps, MLOps).
Weitere Kenntnisse
DataOps, DevOps (Data Analytics (Cloud) Infrastruktur)
Requirements Engineering
Change Management
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden