Java/Kotlin/Kafka AWS Cloud Developer
- Verfügbarkeit einsehen
- 8 Referenzen
- 95‐110€/Stunde
- 80339 München
- Nähe des Wohnortes
- de | tr | en
- 15.04.2024
Kurzvorstellung
Auszug Referenzen (8)
"F. war maßgeblich mit seiner Expertise in Kotlin, Eventbasierten Systemen und Datenbanken am erfolgreichen Aufbau des Datahubs bei XEMPUS beteiligt."
7/2022 – 12/2022
Tätigkeitsbeschreibung
Zetrales Datenmanagement mit Apache Kafka und Kafka Connect
Entwicklung einer zentralen Service Komponente zur Vereinheitlichung des Datenmanagements und unternehmensweiten Optimierung von Business Prozessen.
Auf Basis von Apache Kafka und Kafka Connect wird ein zentraler DataHub aufgebaut. Daten werden aggregiert, zentral verarbeitet und an verschiedene Konsumenten (BI, CRM) veröffentlicht.
In diesem Rahmen wurden folgende Tätigkeiten durchgeführt:
- Anforderungsermittlung und Dokumentation
- Domain Events aus Kafka Topics konsumieren und zu Aggregaten zusammenbauen um den aktuellen Zustand des Aggregats in PostgreSQL zu speichern (Event Sourcing)
- Erstellung von Datenbank Views für den Export nach Tableau
- Export der prozessierten Daten über REST nach SalesForce
- Import der Daten aus anderen PostgreSql Datenbanken
- Monitoring mit Influx und Graphana
- Deployment in einen Kubernetes Cluster
Apache Kafka, Kotlin, Kubernetes, Postgresql, Spring Framework, SQL, Test Automation
"F. proven to be a very skilled and autonomous developer, capable of takling any problem, no matter its complextity. Responsible and team player."
1/2022 – 6/2022
Tätigkeitsbeschreibung
Erneuerung der Fahrzeuganalyse mit Kotlin, AWS SQS und AWS Lambda
Erneuerung und Erweiterung der bestehenden Reporting-Funktionalität. Der Reporting-Erstellungsprozess wurde mittels AWS StepFunctions gesteuert. Die einzelnen Activities in den Services erstellt oder neue Funktionalität mit Lambdas hinzugefügt. Eine Spring Boot Anwendung mit Thymeleaf hat die Berichte erstellt
Erstellung und Überarbeitung von Integrationstests mit TestContainer, LocalStack und WireMock
Amazon Web Services (AWS), Docker, Java (allg.), Apache Kafka, Kotlin, Spring Framework
"Herr A. war im Rahmen eines Kafkastreamsprojekt als Leaddeveloper und Architket beschäftigt . Die Zusammenarbeit war zur vollsten Zufriedenheit"
4/2020 – 2/2022
Tätigkeitsbeschreibung
Konzeption und Entwicklung einer Streaming Data Pipeline für den Online Shop.
Ziel der Streaming Pipeline ist die Übertragung von Änderungen/Events von Produkt und Angebotsdaten aus dem monolithischen OnlineShop BackOffce zu den Online Shop MicroServices in Echtzeit zu übertragen. Die bisherige Export aller Daten bei jeder Änderung hat 2 Stunden gedauert und war instabil.
- Entwicklung eines Proof-of-Concepts mit Kafka, Kafka Connect, Kafka Streams und ksqlDB
- Change-Data-Capture Implementierung im BackOffice um Änderungen/Events über das Outbox-Pattern in die Pipeline zu exportieren
- Kafka Connect importiert die Events aus der Outbox-Table nach Kafka
- Entwicklung mehrere Streaming Services mit Kafka Streams zur weiteren Verarbeitung, Transformation und Agrregierung der Events und Daten
Streamen der Events und Daten aus der Pipeline in die Shop MicroServices
- Erstellung eines PublizierungsServices mit einer React UI
Apache Maven, Continuous Delivery, Docker, Git, Gradle, Java (allg.), Apache Kafka, Kubernetes, React (JavaScript library), Spring Framework, Typescript
"Konstruktive- und produktive Zusammenarbeit."
9/2019 – 3/2020
Tätigkeitsbeschreibung
Das Ziel des Projekts ist die Erneuerung des Newsletter Systems um mit mehr Themen den Lesern ansprechende Newsletter anzubieten. Im gleichen Zuge soll das alte Newsletter-System im Monolithen mit einem neuen MicroService abgelöst werden. Zu meinen durchgeführten Tätigkeiten gehörten:
- Geschäftsprozessanalyse mit Event Storming
- Anforderungsermittlung
- Konzeption der Architektur
- Marktanalyse und Evaluierung verschieder Email Service Provider
- Vorbereitung der Kriterien für eine MakeOrBuy Entscheidung druch die Geschäftsführung
- Implementierung eines Prototyps mit NodeJS, React und MJML
- Umsetzung des neuen Newslettersystems als MicroService mit Spring Boot und ThymeLeaf und Apache Kafka
- Integration der MicroFrontends in das bestehende Portal im Web und AMP Channel
- Aufsetzen des Email Systems mit AWS Simple Email Service, AWS SQS, AWS SNS
- Aufsetzen der Analyse DashBoards mit Apache SuperSet und Druid
- CI und CD mit Gitlab, Kubernetes, HelmCharts, GitFlux und AWS
Continuous Delivery, Software Architecture, Docker, Git, Java (allg.), Spring Framework, Amazon Web Services (AWS), Kubernetes
"F. zeichnet sich nicht nur durch große Erfahrung & enormes Fachwissen aus, sondern ist auch ein überragender Teamplayer mit einzigartigem Engagement"
10/2014 – 7/2019
Tätigkeitsbeschreibung
1. Phase: Relaunch (ca. 2 Jahre)
Relaunch des O2 Online Shops und Migration der Shops von BASE, SIMYO und BLAU in einen einzigen responsive whitelabel Shops. Der Microservice Ansatz und die Einführung von Scrum Nexus ermöglichte ein langsames anwachsen des Teams von 10 Mitgliedern auf bis 24 Mitglieder. Dadurch konnte das Liefervolumen gesteigert werden. Als Senior Entwickler war ich massgeblich beim Entwurf der Architektur und dessen Umsetzung beteiligt. Bei der Umsetzung der Stories habe ich grösstenteils das Backend mit Java designed und umgesetzt, im BackOffice die Oberfläche mit Wicket. Bei einigen wenigen Stories im Shop habe ich die Funktionalität im Frontend mit TypeScript und AngularJS umgesetzt. Bestehende und neue automatisierte Tests werden mit jedem Feature umgesetzt.
2. Phase: Weiterentwicklung
Der Shop wurde mit vielen weiteren Features erweitert, darunter sind folgende grossen Features wie DSL, Kombi-Vorteil und Zahlungsmethoden erwähnenswert, bei welchen ich aufgrund meiner Domänen-Expertise den Product Owner bei der Analyse, Bearbeitung und Koordination der fachlichen Anforderungen (Stories) unterstützt habe. Neben Entwicklung und Archtitektur habe ich an folgenden Aufgaben gearbeitet:
• Verbesserung der automatisierten Build und Delivery-Prozesses (DevOps)
• Interface Abstimmungen mit den Backends
• fachliche und technische Unterstützung des Analyste-Teams
3. Phase: Aufteilung in MicroServices und MicroFrontends
Zu diesem Zeitpunkt bestand der Shop aus einem grossen Monolithen und ein paar MicroServices als kleine Satelliten. Federführend habe ich zusammen mit den Team ein Konzept zur Aufteilung des Shop-Monolithen in MicroServices und MicroFrontends konzipiert. Das Aufteilungskonzept wurde gleichzeitg zur normalen Weiterentwicklung des Shops begonnen.
Meine technischen Tätigkeiten:
• REST API Design und Implementierung von Services
• MicroFrontends als Client-Side-Includes mit React/TypeScript
4. Phase: Relaunch des Shops für mobile Endgeräte
In einem neuen Team haben wir einen ganz neuen konzeptionellen Ansatz für die Benutzerführung mit neuen Technolgien für mobile Enduser als Proof-Of-Concept umgesetzt. Der MicroFrontend Ansatz wurde auf der grünen Wiese mit dem Mozaic Framework in der AWS Cloud umgestzt. Meine Hauptaufgabe war es den neuen POC mit den bestehenden MicroServices und der bestehenden Produktdaten aus dem BackOffice zu verbinden. Der POC war erfolgreich und ist jetzt ein Live System, welches weiterentwickelt und auf Skalierbarkeit optimiert wird.
Neue Technologien: AWS, Kubernetes, Elastic Search, Mosaic, NodeJS, Express, VueJS
Oracle Database, SQL, Scrum, Apache Maven, Docker, Git, Hibernate (Java), Java SE, Jenkins, Junit, Node.Js, Spring Framework, Typescript, Amazon Web Services (AWS), Angular, React (JavaScript library)
"Tolle Zusammenarbeit mit lösungsorientierter Herangehensweise und gutem Knowhow im Bereich Spring / Java / Coremedia. Vielen Dank für deinen Beitrag!"
2/2014 – 9/2014
Tätigkeitsbeschreibung
Relaunch des Whitelabel Nachrichten-Portals mit einer aktuelleren Coremedia Version. Ein besonderes Augenmerk wurde auf Responsive Design des Portals gestellt. Der CMS-System und der Cormedia Editor musste an die Bedürfnisse der Redaktion angepasst werden.
Aufgaben:
• CAE-Seiten mit Freemarker und Spring MVC
• REST-Services
• Anpassung des Core-Media Editors
• Nachrichten Import und Export Job
SQL, Scrum, Apache Maven, Git, Java SE, Jenkins, Spring Framework
"F. ist Top Entwickler! Sehr empfehlenswert!"
8/2013 – 11/2013
Tätigkeitsbeschreibung
• Architektur und Entwicklung der REST Services
• Abstimmung der REST API mit den Frontend Entwicklern
• Continuous Integration mit Jenkins
• Datensammlung mit Apache Flume und Hadoop
Apache Hadoop, Postgresql, Agile Methodologie, Scrum, Git, Java SE, Spring Framework
"Ein sehr verlässlicher Kollege, übernimmt Verantwortung und Ownership für das Produkt. Ausgeprägte Skills in Architektur, Analyse und Entwicklung."
6/2010 – 7/2013
Tätigkeitsbeschreibung
Entwicklung der Portal-Anwendungen Online Shop, Vertragsverlängerung und eCare
Aufgaben:
• Abstimmung der Architektur zwischen Anwendungen und Teams
• Stetige Verbesserung der SW-Qualität durch Code-Review und Refactoring
• Umstellung auf die neuen Restful-Services (MCE)
• Analyse, Design, Implementierung neuer User Stories
• Verwaltete Anwendungen: Shop, Vertragsverlängerung, BackOffice, eCare, Tarifmigration
• Testautomatisierung mit Selenium
Oracle Database, Kanban (Softwareentwicklung), Scrum, Apache Maven, Git, Hibernate (Java), Java SE, Spring Framework, Apache Wicket, Selenium
Qualifikationen
Projekt‐ & Berufserfahrung
1/2023 – 2/2024
Tätigkeitsbeschreibung
Entwicklung des zentralen Event-Gateways und Event-Stores für alle Paket-Events im Unternehmen und bei Partnern. Der neue Event Store ist ein Grundbaustein für die Aufteilung des Monolithen in kleinere MicroServices. Aufgrund der zu erwartenden hohen Last zu bestimmten Uhrzeiten musste das neue System hoch skalierbar und ausfallsicher gestaltet werden. Die Entwicklung des neuen Systems wurde von Performance-Tests (mit Gatling) begleitet. Der serverlose Ansatz mit AWS API Gateway, nativen Lambdas, DynamoDB, SQS und Event Bridge ermöglicht die gewünschte Skalierung und Flexibilität in der Verarbeitung. Wir haben Quarkus und Graal VM verwendet, um eine möglichst kurze Startzeit für die Lambdas zu erreichen. In Kombination mit Kotlin-Coroutinen wurden die verfügbaren Ressourcen in AWS Lambda effizient genutzt und die Lambda-Laufzeiten reduziert.
In der zweiten Phase des Projekts wurde das Event-Gateway um eine Schema-Registry erweitert, um eine hohe Datenqualität zu gewährleisten. Die Confluent Cloud Schema Registry wurde evaluiert und die Integration prototypisch umgesetzt, jedoch sind die Prozesse zur Schemaerstellung sehr individuell, so dass eine Nutzung nicht möglich war. In selbst moderierten Event Modeling Workshops zusammen mit UX/UI, PO, Architekten und Devs haben wir uns einen Überblick über das zu erstellende System verschafft. Ich habe den neuen Event Specification MicroService mit CQRS, Event Sourcing, Spring Boot, Spring Modulith, PostgreSQL implementiert und auf der EKS Plattform deployed.
Aufgaben:
- Konzeption der Architektur und Dokumentation mit C4
- Abstimmung der Architektur mit dem Enterprise Architekten und dem Plattform-Team
- Sicherstellung und Weiterentwicklung der Software-Architektur gemeinsam im Team
- Diskussion von technischen Lösungen und gemeinsame Abstimmung im Team
- Design und Implementierung ggf. im Pair
- Coaching der Entwickler bei der Umsetzung, falls erforderlich
- Unterstützung des Product Owners bei der Konzeption von User Stories
- Gemeinsame Analyse von Anforderungen und Schätzungen bei Verfeinerungen
- Pflege und Weiterentwicklung von Last- und Performancetests mit Gatling
- Fehleranalyse und -behebung
- Automatisierung des Release-Prozesses mit CDK-Pipelines und Kotlin
- Erweiterung der Plattform Jenkins-Pipelines und Erstellung von eigenen CI/CD-Pipelines
- Anpassung von Docker und Helm Charts zur automatisierten Bereitstellung auf AWS EKS
- Erstellung von Graphana DashBoards und Alerts und Überwachung der Anwendung
- Erstellung von CloudWatch DashBoards und Alarmen sowie Überwachung der AWS-Infrastruktur
Tech Stack:
Java 21, Kotlin, Gradle, Quarkus, Spring Boot, Spring Data, Spring Modultih, JPA, PostgreSQL, DynamoDB, SQS, EventBridge, AWS APIGateway, AWS Lambda, CloudWatch, Docker, EKS, Kubernetes, Event Sourcing, CQRS, Confluent Schema Registry, Kafka, Artemis ActiveMQ, CDK Pipeline, AWS CodePipeline, AWS CodeBuild, Jenkins
Amazon Web Services (AWS), Git, Gradle, Hibernate (Java), Java (allg.), Kotlin, Postgresql, Spring Framework
7/2022 – 12/2022
Tätigkeitsbeschreibung
Zetrales Datenmanagement mit Apache Kafka und Kafka Connect
Entwicklung einer zentralen Service Komponente zur Vereinheitlichung des Datenmanagements und unternehmensweiten Optimierung von Business Prozessen.
Auf Basis von Apache Kafka und Kafka Connect wird ein zentraler DataHub aufgebaut. Daten werden aggregiert, zentral verarbeitet und an verschiedene Konsumenten (BI, CRM) veröffentlicht.
In diesem Rahmen wurden folgende Tätigkeiten durchgeführt:
- Anforderungsermittlung und Dokumentation
- Domain Events aus Kafka Topics konsumieren und zu Aggregaten zusammenbauen um den aktuellen Zustand des Aggregats in PostgreSQL zu speichern (Event Sourcing)
- Erstellung von Datenbank Views für den Export nach Tableau
- Export der prozessierten Daten über REST nach SalesForce
- Import der Daten aus anderen PostgreSql Datenbanken
- Monitoring mit Influx und Graphana
- Deployment in einen Kubernetes Cluster
Apache Kafka, Kotlin, Kubernetes, Postgresql, Spring Framework, SQL, Test Automation
1/2022 – 6/2022
Tätigkeitsbeschreibung
Erneuerung der Fahrzeuganalyse mit Kotlin, AWS SQS und AWS Lambda
Erneuerung und Erweiterung der bestehenden Reporting-Funktionalität. Der Reporting-Erstellungsprozess wurde mittels AWS StepFunctions gesteuert. Die einzelnen Activities in den Services erstellt oder neue Funktionalität mit Lambdas hinzugefügt. Eine Spring Boot Anwendung mit Thymeleaf hat die Berichte erstellt
Erstellung und Überarbeitung von Integrationstests mit TestContainer, LocalStack und WireMock
Amazon Web Services (AWS), Docker, Java (allg.), Apache Kafka, Kotlin, Spring Framework
4/2020 – 2/2022
Tätigkeitsbeschreibung
Konzeption und Entwicklung einer Streaming Data Pipeline für den Online Shop.
Ziel der Streaming Pipeline ist die Übertragung von Änderungen/Events von Produkt und Angebotsdaten aus dem monolithischen OnlineShop BackOffce zu den Online Shop MicroServices in Echtzeit zu übertragen. Die bisherige Export aller Daten bei jeder Änderung hat 2 Stunden gedauert und war instabil.
- Entwicklung eines Proof-of-Concepts mit Kafka, Kafka Connect, Kafka Streams und ksqlDB
- Change-Data-Capture Implementierung im BackOffice um Änderungen/Events über das Outbox-Pattern in die Pipeline zu exportieren
- Kafka Connect importiert die Events aus der Outbox-Table nach Kafka
- Entwicklung mehrere Streaming Services mit Kafka Streams zur weiteren Verarbeitung, Transformation und Agrregierung der Events und Daten
Streamen der Events und Daten aus der Pipeline in die Shop MicroServices
- Erstellung eines PublizierungsServices mit einer React UI
Apache Maven, Continuous Delivery, Docker, Git, Gradle, Java (allg.), Apache Kafka, Kubernetes, React (JavaScript library), Spring Framework, Typescript
9/2019 – 3/2020
Tätigkeitsbeschreibung
Das Ziel des Projekts ist die Erneuerung des Newsletter Systems um mit mehr Themen den Lesern ansprechende Newsletter anzubieten. Im gleichen Zuge soll das alte Newsletter-System im Monolithen mit einem neuen MicroService abgelöst werden. Zu meinen durchgeführten Tätigkeiten gehörten:
- Geschäftsprozessanalyse mit Event Storming
- Anforderungsermittlung
- Konzeption der Architektur
- Marktanalyse und Evaluierung verschieder Email Service Provider
- Vorbereitung der Kriterien für eine MakeOrBuy Entscheidung druch die Geschäftsführung
- Implementierung eines Prototyps mit NodeJS, React und MJML
- Umsetzung des neuen Newslettersystems als MicroService mit Spring Boot und ThymeLeaf und Apache Kafka
- Integration der MicroFrontends in das bestehende Portal im Web und AMP Channel
- Aufsetzen des Email Systems mit AWS Simple Email Service, AWS SQS, AWS SNS
- Aufsetzen der Analyse DashBoards mit Apache SuperSet und Druid
- CI und CD mit Gitlab, Kubernetes, HelmCharts, GitFlux und AWS
Continuous Delivery, Software Architecture, Docker, Git, Java (allg.), Spring Framework, Amazon Web Services (AWS), Kubernetes
10/2014 – 7/2019
Tätigkeitsbeschreibung
1. Phase: Relaunch (ca. 2 Jahre)
Relaunch des O2 Online Shops und Migration der Shops von BASE, SIMYO und BLAU in einen einzigen responsive whitelabel Shops. Der Microservice Ansatz und die Einführung von Scrum Nexus ermöglichte ein langsames anwachsen des Teams von 10 Mitgliedern auf bis 24 Mitglieder. Dadurch konnte das Liefervolumen gesteigert werden. Als Senior Entwickler war ich massgeblich beim Entwurf der Architektur und dessen Umsetzung beteiligt. Bei der Umsetzung der Stories habe ich grösstenteils das Backend mit Java designed und umgesetzt, im BackOffice die Oberfläche mit Wicket. Bei einigen wenigen Stories im Shop habe ich die Funktionalität im Frontend mit TypeScript und AngularJS umgesetzt. Bestehende und neue automatisierte Tests werden mit jedem Feature umgesetzt.
2. Phase: Weiterentwicklung
Der Shop wurde mit vielen weiteren Features erweitert, darunter sind folgende grossen Features wie DSL, Kombi-Vorteil und Zahlungsmethoden erwähnenswert, bei welchen ich aufgrund meiner Domänen-Expertise den Product Owner bei der Analyse, Bearbeitung und Koordination der fachlichen Anforderungen (Stories) unterstützt habe. Neben Entwicklung und Archtitektur habe ich an folgenden Aufgaben gearbeitet:
• Verbesserung der automatisierten Build und Delivery-Prozesses (DevOps)
• Interface Abstimmungen mit den Backends
• fachliche und technische Unterstützung des Analyste-Teams
3. Phase: Aufteilung in MicroServices und MicroFrontends
Zu diesem Zeitpunkt bestand der Shop aus einem grossen Monolithen und ein paar MicroServices als kleine Satelliten. Federführend habe ich zusammen mit den Team ein Konzept zur Aufteilung des Shop-Monolithen in MicroServices und MicroFrontends konzipiert. Das Aufteilungskonzept wurde gleichzeitg zur normalen Weiterentwicklung des Shops begonnen.
Meine technischen Tätigkeiten:
• REST API Design und Implementierung von Services
• MicroFrontends als Client-Side-Includes mit React/TypeScript
4. Phase: Relaunch des Shops für mobile Endgeräte
In einem neuen Team haben wir einen ganz neuen konzeptionellen Ansatz für die Benutzerführung mit neuen Technolgien für mobile Enduser als Proof-Of-Concept umgesetzt. Der MicroFrontend Ansatz wurde auf der grünen Wiese mit dem Mozaic Framework in der AWS Cloud umgestzt. Meine Hauptaufgabe war es den neuen POC mit den bestehenden MicroServices und der bestehenden Produktdaten aus dem BackOffice zu verbinden. Der POC war erfolgreich und ist jetzt ein Live System, welches weiterentwickelt und auf Skalierbarkeit optimiert wird.
Neue Technologien: AWS, Kubernetes, Elastic Search, Mosaic, NodeJS, Express, VueJS
Oracle Database, SQL, Scrum, Apache Maven, Docker, Git, Hibernate (Java), Java SE, Jenkins, Junit, Node.Js, Spring Framework, Typescript, Amazon Web Services (AWS), Angular, React (JavaScript library)
2/2014 – 9/2014
Tätigkeitsbeschreibung
Relaunch des Whitelabel Nachrichten-Portals mit einer aktuelleren Coremedia Version. Ein besonderes Augenmerk wurde auf Responsive Design des Portals gestellt. Der CMS-System und der Cormedia Editor musste an die Bedürfnisse der Redaktion angepasst werden.
Aufgaben:
• CAE-Seiten mit Freemarker und Spring MVC
• REST-Services
• Anpassung des Core-Media Editors
• Nachrichten Import und Export Job
SQL, Scrum, Apache Maven, Git, Java SE, Jenkins, Spring Framework
11/2013 – 1/2014
Tätigkeitsbeschreibung
• Konzeption und Schätzung von Anforderungen
• Umsetzung der nötigen Anpassungen im Rahmen der Scrum-Sprints
• Sicherstellung und ggf. Weiterentwicklung der Softwarearchitektur
• Design und Implementierung
• Planung, Entwicklung und Durchführung von automatisierten Tests
Oracle Database, SQL, Scrum, Apache Maven, Git, Hibernate (Java), Java SE, Junit, Spring Framework, Serviceorientierte Architektur, Apache Wicket, Representational State Transfer (REST), Selenium
8/2013 – 11/2013
Tätigkeitsbeschreibung
• Architektur und Entwicklung der REST Services
• Abstimmung der REST API mit den Frontend Entwicklern
• Continuous Integration mit Jenkins
• Datensammlung mit Apache Flume und Hadoop
Apache Hadoop, Postgresql, Agile Methodologie, Scrum, Git, Java SE, Spring Framework
6/2010 – 7/2013
Tätigkeitsbeschreibung
Entwicklung der Portal-Anwendungen Online Shop, Vertragsverlängerung und eCare
Aufgaben:
• Abstimmung der Architektur zwischen Anwendungen und Teams
• Stetige Verbesserung der SW-Qualität durch Code-Review und Refactoring
• Umstellung auf die neuen Restful-Services (MCE)
• Analyse, Design, Implementierung neuer User Stories
• Verwaltete Anwendungen: Shop, Vertragsverlängerung, BackOffice, eCare, Tarifmigration
• Testautomatisierung mit Selenium
Oracle Database, Kanban (Softwareentwicklung), Scrum, Apache Maven, Git, Hibernate (Java), Java SE, Spring Framework, Apache Wicket, Selenium
8/2009 – 6/2010
Tätigkeitsbeschreibung
Aufbau einer unternehmensweiten SOA Plattform
Aufgaben:
• Refactoring der vorhandenen Architektur zur Einführung von Dependecy Injection mit Spring
• Konzeption der Verwendung der Platform mit dem Portal Server Liferay
• Erstellung des Sicherheitskonzeptes mit RBAC (Role based access control) und Spring Security
• Einbindung des Sicherheitskonzepts in das Portal und alle Portlets
• Erstellung eines Blueprints und der technischen Basisarchitektur (Repository (DAO), Service, DTO)
• Testgetriebene Implementierung der Services
• One time Password Lösung mit RSA SecurId
• Integration von Spring, Spring Security, Liferay und Wicket
• Agiles Anforderungsmanagement für die Management Applikation
• Design und Implementierung von Services (SOA)
• Rollout der Platform incl. Schulung von internationalen Entwicklerteams
SQL, UML, Hibernate (Java), J2EE, Junit, Spring Framework, XML, Serviceorientierte Architektur, Apache Wicket
8/2008 – 5/2009
Tätigkeitsbeschreibung
Entwicklung eines Auftragsabwicklungs- und Qualitätssicherungssystems
• Objektorientierte Analyse des Fachkonzepts
• Erstellung eines Analyse Models in UML
• Erstellung eines Blueprints und der technischen Basisarchitektur (3 Tier Architektur, Webanwendung)
• Konzeption und Installation der Entwicklungs- und Testinfrastruktur
• Testgetriebene Umsetzung der Use Cases
• Anpassung von Struts für internationalisierte Texte aus der Datenbank
• Schnittstellenimplementierung zu den externen Systemen X500, SAP und IBM Tivoli Access Manager
• Implementierung von Test Doubles für die externen Systeme um eine frühe Testbarkeit zu gewährleisten
• Performance Tests mit JMeter
IBM WebSphere Application Server (WAS), Subversion, Hibernate (Java), Java SE, Spring Framework, Ajax, JavaScript, Apache Struts
4/2007 – 7/2008
Tätigkeitsbeschreibung
• Analyse der vorhandenen System und SW Architektur
• Analyse der fachlichen Anderderungen
• Analyse des aktuellen Prozesses für Bildkartenproduktionen
• Abstimmung des Prozesses mit den betroffenen Abteilungen
• Dokumentation der Use Cases für das Gesamtsystem
• Evaluierung der relevanten Langzeitsicherungsmöglichkeiten, bsp. OpenText, IXOS, Individuallösung
• Konzeption der Soll-ArchitekturErmittlung und Definition der unternehmensweiten Teststrategie
• Beratung und Unterstützung bei der Definition der Testprozesse
• Coaching von Testern in der Testfallerstellung und automatisierung
• Risikoorientierte Planung des Testvorgehens und Abstimmung mit den Fachbereichen
• Detaillierte Analysen der verfügbaren Software Dokumentation, Software
Architekturen und Anforderungen der Anwender
• Integration der System und Integrationstests in die Continuous Integration
• Erstellen von Testfällen, Testmatrizen und Testablaufplänen
• Evaluierung und Anpassung von Open Source Test Frameworks an die
Unternehmensanforderungen
• Automatisierung der Regressionstests mit Open Source Technologien
• Automatisierte Erzeugung von Testdaten
• Ermittlung der notwendigen Testinfrastruktur bzw. Testumgebung
Bash Shell, Java SE, Junit, XML, HTML
2/2006 – 3/2007
Tätigkeitsbeschreibung
Entwicklung eines Online Car-Konfigurators
• IST und SOLL Prozessanalyse des betroffenen Geschäftsprozesses
• Anforderungsermittlung und -analyse
• Analyse des EurotaxSchwacke Datenmodells
• Erstellung der Feinspezifikation und Use Cases
• Modellierung der Software Architektur mit UML
• Definition des Datenbankschemas und Hibernate Mappings
• Entwicklung der Webanwendung mit J2EE
• Entwicklung von JUnit Tests
• Erstellung des Testkonzepts
• Beratung der Fachabteilung bei der Erstellung von Testfällen
• Entwicklung eines Prototypen zur Testautomatisierung mit Watij
Apache Maven, Subversion, Hibernate (Java), Java SE, Junit, Javaserver Pages
Zertifikate
Ausbildung
TU München
Über mich
Weitere Kenntnisse
Architektur: Event Driven Architecture, Domain Driven Design, Microservices, Moduliths, REST
Framework: Spring Boot, Spring Data, Spring Modulith, JPA, Hibernate, Quarkus, Gradle, Maven
Datenbank: PostgreSQL, DynamoDB, Redis, Oracle, Elastic Search
DevOps: GitHub, GitLab, Docker, Kubernetes, Graphana, Prometheus
AWS: SQS, SNS, Lambda, EventBridge, CDK, CloudFormation, MSK, CloudWatch, StepFunctions
Messaging: Kafka, Kafka Connect, ActiveMQ, Confluent Schema Registry, Kafka Streams, KsqlDB
Frontend: React
Persönliche Daten
- Deutsch (Muttersprache)
- Türkisch (Muttersprache)
- Englisch (Gut)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden