Cloud Engineer / Software Engineer / DevOps Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- 120€/Stunde
- 85055 Ingolstadt
- DACH-Region
- de | en
- 22.01.2025
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
9/2020 – 1/2025
Tätigkeitsbeschreibung
Die Erfahrung des Kunden soll während der Fahrt des Autos verbessert werden. Das Auto soll über alle Probleme informieren und aufkommende Fragen richtig und ohne Ausfallzeit beantworten. Es wird ein sprachbasiertes AI-System entwickelt, das Spracherkennungen und Techniken zum Verständnis der Natursprache verwendet, um mit den Kunden im Auto zu kommunizieren. Das System wird dem Benutzer alle benötigten Informationen per Sprachansage zu Verfügung stellen.
- Aufsetzen der CI/CD-Pipeline, automatisierte Einheits- / Integrationstests und Bereitstellung mit Hilfe von Azure und GitHub Actions
- Einstellung der Softwarearchitektur
- Anwendungen durch Azure-Funktionen Cloud fähig machen
DevOps, Microsoft Azure, Python, Test Automation
5/2019 – 9/2020
Tätigkeitsbeschreibung
Deutsche Börse AG (DBAG) entwickelt den Serviceplattform Buy-In Agent für die Clearing-Mitglieder, Deutsche Börse Group (DBG) Kunden und andere Marktteilnehmer um eine Lösung für nicht-zentralisierte verrechnete Wertpapiertransaktionen zu ermöglichen. Dadurch werden tägliche Datenverarbeitung im hohen Bereich in Real Time aufgenommen, verarbeitet und analysiert.
- Aufsetzen des Cloudera on-premise DevOps Pipelines mit CI / CD, automatisierten Unit- / Integration-Tests und Deployment
- Erstellung der Architektur
- Entwicklung der Spark Jobs
- Bereitstellung der Anwendung mit Docker und Kubernetes - Aufsetzen des Data-Streaming-Pipelines
Apache Hadoop, Apache Spark, Docker, Git, Java (allg.), Jenkins, Jira, Junit, Python, Scala, Spring Framework, RTSP (RealTime Streaming Protocol), Amazon Web Services (AWS), Kubernetes
3/2019 – 6/2020
Tätigkeitsbeschreibung
Wir entwickeln ein vollautomatisiertes System für die Identifikation und Klassifizierung der Fahrsituationen mit dem Ziel, manuelle Arbeit und die damit entstandenen Kosten zu sparen. Für die Analyse verwenden wir Anomalie-Erkennung um die gesamte Zeitreihe in kleinere Situationen zu schneiden. Anschließend verwenden wir Unsupervised Learning und Hierachical Clustering um die ähnliche Situationen in gleichen Gruppen zu sortieren. Das Ergebnis wird durch eine interaktive Webseite dargestellt.
- Deployment der Anwendung in die Azure Cloud.
- Clustering der Zeitabschnitten unter Anwendung von Machine Learning Methoden.
- Scaling der Methode mithilfe von Big Data Technologien.
Data Science, Scikit-learn, Apache Spark, Git, Python, Microsoft Azure
7/2018 – 3/2019
Tätigkeitsbeschreibung
Durch den digitalen Wandel in der Automobilindustrie – hin zur Elektrifizierung, dem autonomen Fahren sowie der Vernetzung – wird der Anteil an Elektronik und Software im Fahrzeug weiter stark ansteigen. Ein signifikanter Kostentreiber des Gesamtfahrzeugs der Zukunft liegt im Bereich Softwareentwicklung, welche zu großen Teilen von externen Lieferanten zugekauft werden wird.
Ziel dieses Projekts ist es eine Datenbank inclusive Rechenkern zu entwickeln, die durch Datenanalyse und künstliche Intelligenz den Abgleich unterschiedlicher Angebote für Entwicklungskosten ermöglicht.
-Teilprojektleitung, verantwortlich für die technische Konzeption.
-Full-Stack Software Entwicklung.
-Aufsetzen des AWS DevOps und CI / CD Pipelines mit automatisierten Deployment und automatisierten Tests.
Natural Language Processing, Python, Amazon Web Services (AWS), Django
6/2018 – 9/2018
Tätigkeitsbeschreibung
Es wird ein Tool zur automatischen Ermittlung der Personenkapazität in an den Zugleisen entwickelt. Als Technologie sollte die Video- und Bilderkennung mit Deep Learning und anderen Open Source Produkte im Fokus stehen.
-Aufsetzen des CI / CD Pipeline mit Gitlab und Jenkins
-Erstellung des Deployment mit Docker
-Automatisierte Unit-Test erstellen.
Opencv, Tensorflow, Docker, Jenkins, Python, Django
6/2017 – 5/2018
Tätigkeitsbeschreibung
Alle deutschen Banken haben Meldepflicht an die Bundesbank. Der Vorgang sollte automatisiert werden. Es wird eine Data-Pipeline entwickelt, die die Daten aus den verschiedenen Systemen nehmen, sie bereinigen und bearbeiten. Anschließend werden Meldungen erstellt und automatisch an die Bundesbank geliefert.
-Erstellung und Durchführung von Refactoring der Softwarearchitektur.
-Automatisierte Unit- und Integration-Tests erstellen -Aufsetzen des CI / CD Pipeline mit Jenkins
-Erstellung des Deployment mit Docker und Kubernetes
Docker, Java (allg.), Jenkins, Junit, Spring Framework, Kubernetes
1/2017 – 7/2017
Tätigkeitsbeschreibung
In diesem Projekt wurde ein Anwendungsbeispiel aus dem Bereich IoT mit kleinen Spielzeugautos der Marke Anki OVERDRIVE realisiert. Die Autos besitzen Sensoren und einen Mikroprozessor, um beispielsweise ihre Position und Geschwindigkeit zu messen. Daten und Befehle werden mit Hilfe von Bluetooth-Low-Energy (BLE) an die Fahrzeuge beziehungsweise die Steuerung übertragen.
Die gesammelten Sensordaten wurden in einer Lambda-Architektur, welche hauptsächlich aus Open-Source Softwarelösungen basierte, gespeichert. Von dort aus wurde verschiedene Szenarien, wie beispielsweise Anti-Kollision, implementiert. Ebenfalls Teil des Projektes war die Evaluierung von Frameworks im Bereich maschinelles Lernen und inwiefern damit das Fahrverhalten verbessert werden konnte.
-Design der Lambda-Architektur für die Verarbeitung der Sensordaten
-Präsentationen des Showcases bei Konferenzen und Workshops -Entwicklung Machine Learning Use Cases.
-Erkennung von Anomalien
Apache Spark, Scrum, Python, RTSP (RealTime Streaming Protocol)
1/2017 – 6/2017
Tätigkeitsbeschreibung
Eine Webanwendung zur Steuerung wichtiger Kennzahlen soll entwickelt werden. Ein Benutzer kann verschiedene Frames gleichzeitig anzeigen lassen. Jedes Frame beinhaltet entweder Kennzahlen, Berichterstattungen, Kommentare, Grafiken, oder interne Links. Die Daten stammen aus verschiedenen SAP Systemen. Anschließend werden verschiedene Analyse basierend auf die Kennzahlen durchgeführt
-Entwicklung der Datenmodelle
-Entwicklung der Softwarekomponenten
-Erstellen von Mockups in Abstimmung mit Kunden
Oracle-Anwendungen, Git, Java (allg.), Junit, Spring Framework, Representational State Transfer (REST)
Zertifikate
Ausbildung
FAU Erlangen Nürnberg
Technische Hochschule Ingolstadt
Weitere Kenntnisse
Programmiersprachen:
-Python
-Scala
-Java
Big Data & Analytics:
-Spark
-Hive
-Impala
-Hadoop
-Kafka
-Cloudera
-Kibana
-DevOps
-Docker
-Kubernetes
-Jenkins
-Maven
-Gradle
-CI / CD
-Github
-Gitlab
-Jira
Machine Learning:
-scikit-learn
-Natural Language Toolkit
-OpenCV
-tensorflow
-kerras
-numpy
-pandas
-matplotlib
Software Entwicklung:
-Python Django
-Spring Stacks
-Google Guice
Cloud Technologien:
-AWS
-Azure
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden