Very experienced, creative and versatile software developer/systems architect/systems analyst Since I attended a technical...
- Verfügbarkeit einsehen
- 0 Referenzen
- 75‐95€/Stunde
- Pankow
- Europa
- de | en | it
- 21.03.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
10/2023 – 2/2024
TätigkeitsbeschreibungMeine Verantwortlichkeiten umfassten die Optimierung vorhandener Codes, die Erweiterung der Codebasis entsprechend neuen oder modifizierten fachlichen Anforderungen sowie Aufgaben im Bereich der Architektur. Dazu gehörte insbesondere die Erstellung fachlicher Analysen und die Entwicklung darauf basierender Implementierungskonzepte, um eine effiziente und zielgerichtete Umsetzung zu gewährleisten.
Eingesetzte QualifikationenConfluence, Jira, Bash Shell, Data Warehousing, Datenbankentwicklung, Git, Oracle-Anwendungen, Oracle Application Express, PL/SQL, Python, Software Architecture
5/2022 – 3/2023
TätigkeitsbeschreibungUmsetzung der integralen Funktionalität des Insufflators und Endoskops auf Hardwareebenen sowie der Verarbeitung der visuellen Daten des Operationsfeldes auf Backend-Seite.
Eingesetzte QualifikationenLinux (Kernel), Linux Entwicklung, Advanced Message Queuing Protocol, C++, Confluence, Datenbankentwicklung, Datenmodelierung, Docker, Elasticsearch, Embedded Entwicklung / hardwarenahe Entwicklung, Enterprise Architect (EA), Git, Jenkins, Jira, Microsoft Azure, Postgresql, Python, Qt (Software)
12/2021 – 12/2023
Tätigkeitsbeschreibung
Meine Aufgabe ist die Erstellung von Linux Kernel Erweiterungen für die Verarbeitung von Echtzeit Sequenzen die von der Bedienten RI(Oracle Backend) an die jeweiligen Fahrgastinformationssysteme an den Bahnhöfen der Deutschen Bahn(rund 21000 Devices) jeweils mit den aktuellsten Fahrdaten gesendet werden.
Backendseitig (Oracle DBMS) ist der Entwurf und die Umsetzung für die Erfassung der jeweiligen Zug Daten sowie die weitere Verteilung der aufbereiteten Daten über Message-queues an die jeweiligen Anzeiger auf den Bahnsteigen meine Aufgabe
Linux (Kernel), Linux Entwicklung, Advanced Message Queuing Protocol, Bash Shell, C++, Confluence, Data Vault, Data Warehousing, Docker, Elasticsearch, Embedded Linux, Embedded Systems, Enterprise Architect (EA), Git, Jira, Python, Software Architecture, UML
10/2021 – 12/2022
TätigkeitsbeschreibungWeiterentwicklung und Wartung des bestehenden Datawarehouse (SQL, PL/SQL, Linux Shell Skripte) sowie der und Entwicklung der Host basierten Jobsteuerung (IBM Workload Scheduler)
Eingesetzte QualifikationenIBM Aix, Solaris, Bash Shell, C++, Confluence, Data Vault, Data Warehousing, Datenbankentwicklung, Datenmodelierung, Git, IBM 4690 / 4680 OS, Jira, Linux Entwicklung, Oracle-Anwendungen, Oracle Data Guard, Os/390 Operating System, PL/SQL, Programming Language One (PL/I, PL1), Python
8/2021 – 3/2022
TätigkeitsbeschreibungVollständige Migration des Kreditkartenprozessores für Issuing | Acquiring der Brands MasterCard, VISA für den Volksbanken/Raiffeisenbanken Konzern Verbund
Eingesetzte QualifikationenOracle Data Guard, Datenanalyse, Datenbankentwicklung, Enterprise Architect (EA), Oracle-Anwendungen, Oracle Application Express, Python, System Analyse, System Architektur
7/2021 – 2/2022
Tätigkeitsbeschreibung
Zusammenfassen von unternehmensweiten Kennzahlen aus dem Betrieb des Bahnsystems in einem analytischen Entscheidungs-DataWareHouse
Komplette Implementierung von ETL-Prozessen/-Routen und Calculation Layer in Python. Datenbankrelevante Codes werden in PostgreSQL-PSQL sowie Python Stored Procedures implementiert.
Linux Entwicklung, Confluence, Data Vault, Datenbankentwicklung, Datenmodelierung, Docker, Enterprise Architect (EA), Funktionale Programmierung, Git, Jira, Oracle-Anwendungen, Postgresql, Python, Software Architecture, Virtualisierung (Allg.), Web Services
6/2020 – 4/2021
Tätigkeitsbeschreibung
Entwurf und Implementierung einer konsolidierten containerisierten, cloudbasierten Datenplattform für den zeitkritischen Energiehandel
Implementierung in C++ und Python (Datenschnittstelle und Rechenkern), Python (Visualisierung und Cloud-Steuerung) und TSQL/MDX SQL Server DataWareHouse.
Docker, C++, Confluence, Datenbankentwicklung, Datenmodelierung, Enterprise Architect (EA), Git, Jenkins, Jira, Microsoft SQL-Server (MS SQL), Microsoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Integration Services (SSIS), Microsoft SQL Server Reporting Services (SSRS), Oracle Database, PL/SQL, Python
3/2020 – 8/2020
Tätigkeitsbeschreibung
Modellierung und Implementierung der Azure Cloud basierten DWH/BI Plattform für die Ergebnisauswertung von Handelssystemen
Realisierung in C++, Python und T/SQL
Linux Entwicklung, C++, Data Vault, Data Warehousing, Git, Microsoft Azure, Microsoft SQL-Server (MS SQL), Python, Software Architecture, Web Services
7/2019 – 10/2020
Tätigkeitsbeschreibung
Entwurf und Implementierung einer auf Microservices (Docker-Container) basierenden Architektur zur Sicherung und Anbindung aller BA-Dienste über REST-Schnittstellen (servicebasierte Architektur).
Implementierung in optimiertem C++, C# und Python Code.
Solaris, Bash Shell, Data Vault, Data Warehousing, Datenbankentwicklung, Linux Entwicklung, Microsoft SQL-Server (MS SQL), Oracle-Anwendungen, Oracle Data Guard, Oracle Database, Oracle Rac, Oracle Service Bus, PL/SQL, Python, Software Architecture, Transact-Sql
5/2019 – 1/2020
Tätigkeitsbeschreibung
Erstellung und Implementierung von mathematischen Modellen zur Analyse und Docker-Container-basierten Verarbeitung von OTDS-Schnittstellenstrukturen zur optimalen Abwicklung aller angeschlossenen (Online-)Reisebüros in Deutschland, Frankreich, den Niederlanden und Belgien.
Implementierung in optimiertem C++ und in Python3-Code für nicht zeitkritische Komponenten.
Oracle-Anwendungen, Postgresql, Elliptic Curve Digital Signature Algorithm, Confluence, Software Architecture, C++, Docker, Jira, Python, Microsoft Azure, Virtualisierung (Allg.), Web Services
3/2019 – 1/2020
Tätigkeitsbeschreibung
Konzeption (Entwicklung einer Systemarchitektur) und Implementierung eines Oracle-basierten DWHs zur Ablösung der bestehenden SOPHIA-Systemlandschaft.
Oracle 12c/18c | SAP BO HANA
Oracle Business Intelligence (BI), Transact-Sql, Microsoft SQL-Server (MS SQL), Oracle-Anwendungen, SAP S/4HANA, Oracle Application Express, Enterprise Architect (EA), Softwareanforderungsanalyse, Software Architecture, PL/SQL, Python
7/2018 – 7/2019
Tätigkeitsbeschreibung
Entwurf einer Azure-basierten Architektur und Entwicklung von Datamart als Kern-DWH-System für Tableau (BI Management Reporting)
SQL Server SSAS/SSIS / Oracle BI (Attunity replicate) – C# .Net Core 2.0 & Entity Framework Core 2.1
Business Intelligence (BI), Data Warehousing, Microsoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Reporting Services (SSRS), Transact-Sql, Data Vault, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL), Confluence, .Net Framework (Microsoft), C#, Git, Jira, System Architektur, Microsoft Azure
5/2018 – 3/2019
TätigkeitsbeschreibungMeine Rolle umfasste die Entwicklung und Umsetzung des Architekturkonzepts sowie die Implementierung des BI-Reportings und der Host-Schnittstellen für den gegenseitigen effektiven Datenaustausch.
Eingesetzte QualifikationenData Warehousing, Microsoft SQL Server Reporting Services (SSRS), Tableau, Transact-Sql, Data Vault, Datenmodelierung, Microsoft SQL Server Integration Services (SSIS), Microsoft SQL-Server (MS SQL), Confluence, Software Architecture, Git, Jira
7/2017 – 6/2018
Tätigkeitsbeschreibung
DBaaS(Database as a Service)-Implementierung eines Cloud-Clusters(Cloudfoundry/Openstack)Automaticsolution,Provisioning und Balancing von Oracle- und MYSQL/MariaDB-Systemen in Kubernetes-Clustern. Die Implementierung umfasst auch die formulierte Lösung für Monitoring, Backup&Recovery und Lifecycle-Management von DBMS-Installationen, die in der Cloud ausgerollt werden.
Design und Implementierung der DWH-Trendanalyse und Optimierung der VW-Finanzflotte für das VW-Konzernkonzert
Data Warehousing, Datenanalyse, Datenbankentwicklung, Datenmodelierung, Mariadb, Mysql, Oracle-Anwendungen, Oracle Data Guard, Digitaler Signalprozessor (DSP), Confluence, C++, Docker, Jira, Linux Entwicklung, Python, Kubernetes
6/2016 – 6/2019
Tätigkeitsbeschreibung
Erstellung des technischen Archivierungskonzepts rund um die Massendaten mit ihrem hochkomplexen Datenmodell aus dem produktiven Oracle-Datenbankcluster zur Entlastung des Systems sowie zur Erfüllung gesetzlicher Anforderungen und Vorgaben.
Entwicklung eines leistungsfähigen DWHs zur Trendanalyse und effizienten Verwaltung von Laderaum und Containerschiffsrouten
Solaris, Archivierung, Bash Shell, C++, Confluence, Docker, Enterprise Architect (EA), Git, Jira, Linux Entwicklung, Microsoft SQL-Server (MS SQL), Microsoft SQL Server Analysis Services (SSAS), Microsoft SQL Server Integration Services (SSIS), Microsoft SQL Server Reporting Services (SSRS), Oracle-Anwendungen, Oracle Application Express, Oracle Database, PL/SQL, Python, SAP BO-PC, Crystal Reports, Software Architecture, System Design, Tableau
3/2011 – 11/2011
Tätigkeitsbeschreibung
Ziel des Projekts ist die Entwicklung einer vollständig generischen Plattform für das Area Tolling(Mauteinhebung auf allen, auch sekundären Straßen)/Network Tolling(Mauteinhebung auf Autobahnen )/Section Tolling(städtische Umfahrungsstraßen, Brücken, Tunnels, etc.).
Dabei werden die unterschiedlichsten Bedürfnisse der verschiedenen Autobahnbetreiber sowie die jeweils regional/landesabhängigen gültigen Rechtsvorschriften(da es sich ausschließlich um international Auftraggeber handelt) über lose gekoppelte Module( sogenannten DI-Einheiten :device integration untis) welche mittels Konfiguration zu einem Leistungsfähigen Mautsystem verbunden werden, abgedeckt.
Dabei muss neben der Anbindung der unterschiedlichsten Sensoren- und Videoeinheiten an das zentrale CF-Bussystem, auch die Integration beispielsweise eines Rechenwerks für ein online-billing(von prepaid Kunden), Speerlisten mit Anbindung von mobilen enforcement units etc. möglich sein.
Herausfordernd war die Realisierung von sehr effizient arbeitenden Modulen, da die zugrundeliegenden Hardwareplattformen robust, allerdings nicht von hoher Leistung sind, und zur Verarbeitung der Daten jeweils ein recht exakt definierter, knapp bemessener Zeitraum zur Verfügung steht, und da es sich um interaktive System handelt, welche auf Autobahnen und Schnellstraßen deren Dienst versehen, ist auch die Robustheit und Zuverlässigkeit des erzeugten Sourcecodes von entscheidender Bedeutung für die Kundenzufriedenheit. Denn auch nur ein kurzer Systemausfall wirkt sich direkt auf die möglichen Mauteinnahmen das jeweiligen Betreibers aus, was bei einem Verkehrsaufkommen von bis zu 20.000Fahrzeugen pro Stunden einen erheblichen finanziellen Schaden bedeutet.
Von grundlegender Bedeutung ist die Anforderung, dass der entwickelte Sourcecode multiplattformfähig, also bei derselben Code-Basis für Windows XP sowie Linux kompiliert werden kann und sich im laufzeitverhalten auf allen Plattformen möglichst ident verhält.
Implementierung: C++ T PLSQL/Sql | boost Library | yami Library | xercesc library
Datenbank: Oracle 10g/ 11g
Plattform: Windows XP embedded | Linux embedded
9/2010 – 5/2011
Tätigkeitsbeschreibung
Da bei Klinischen Studien, welche oftmals über mehrer Jahre laufen und an denen eine Vielzahl an PatienInnen teilnehmen umfangreichste Datenmengen anfallen wurde es notwendig eine entsprechende technische Lösung zu entwerfen, um die gewonnen Daten so, auch Studienübergreifend, zu verbinden, damit für die Forschung rasch die Wirksamkeit und Zusammenhänge unterschiedlicher neuer Medikamente, neuer Therapieansätze und Krankheitsverlauf ersichtlich wird.
Der Auftraggeber verwendet gegenwärtig ein WEB Basiertes Werkzeug, mit welchem bei unterschiedlichen Prüfzentren in ßsterreich(Kliniken, niedergelassenen ßrzten etc.) die Pateiendaten(akten), nach einem umfangreichen und strikt einzuhaltenen Protokoll erfasst werden.
Die gewonnen Daten werden in einer SQL Server Datenbank abgelegt, allerdings gibt es keine auf die Bedürfnisse der ABCSG abgestimmten Analyse- und Reportingwerkzeuge. Die Ergebnisse aus den Daten mussten bisher grossteils manuell und langwierig von Statistikern aus den Eingaben gewonnen werden. Daher war es naheliegend ein entsprechendes Multidimensionales Datenbanksystem aufzubauen, und darin alle relevanten Kennzahlen, welche sorgfälltig mit den Fachbereichen abgestimmt wurden, abzulegen.
Auf den Kennzahlen des MDBMS setzt ein sehr umfangreiches reporting System auf, welches aufgrund der Vorverdichtung der Daten den Wissenschaftlichen Fachbereichen sehr rasch aussaggekräftige Ergebnisse in unterschiedlichster Granularität zur Verfügung stellt.
Implementierung: TSql | C++ | C#.Net | ASP.NET
Datenbank: MS Sql Server 2008 R2 | Analasis-/Reporting Services
Plattform:
Windows Server 2008 R2 | IIS7
6/2010 – 8/2010
Tätigkeitsbeschreibung
Projekt: DWH LoS (Leistungs-orientierte-Steuerung)
Die Integration und Vereinheitlichung der beiden Teilprojekte DWH-Steuer(externes Kontrollwerkzeug) und DWH LoS(Finanz- und Zollinternes Werkzeug zur Leistungsmessung ) war aufgrund der ßhnlichkeit beider Projekte und aus Gründen der Kostenoptimierung das eigentlich Projektziel.
So wurden die Stagingstrukturen und Validierungen des DWH Steuer, zur Aufnahme der Daten aus den Vorsystemen, für das DWH LoS erweitert, und die gesamte Logik der Kennzahlenermittlung zum DWH LoS hin verschoben.
Weiters mussten sämtlich Datamarts des DWH Steuer migriert, und das zum Visualisieren der Kennzahlen eingesetzte Cognos Reporting System auf die entsprechende Änderung der Systemlandschaft angepasst werden.
Implementierung: PL/SQL, C++
Datenbank: Oracle 11g | Oracle Warehouse builder 11
Plattform: Sun Solaris 10
10/2008 – 5/2010
Tätigkeitsbeschreibung
Projekt: DataWareHouse issuing/accquiring für Credit/Debit(Proj.NINA)
Auftraggeber PayLife Bank GmbH.
Umsetzung der ETL komponenten sowie Entwurf und Aufbau des relationalen und multidimensionalen Datawarehouses sowie der nachgelagerten Datamarts und des darauf ausetzenden Reportings
_____
Das Ziel des Projekts ist der Aufbau eines dedizierten Datawarehouses mit der Ausbildung fachlich(Abteilungs) zentrierter Datamarts. Das gesetze Ziel war die möglichst zeitnahe(mit einem Tag Latenz zum operativen System) Bereitstellung und Aufbereitung sämtlicher für die jeweiligen Fachbereiche relevanten Daten. Die errechneten Kennzahlen werden den Fachbereichen über ein Reporting Portal(SQLServer 2005 Reporting Service-SSRS) zur Verfügung gestellt.
Als Architektur wurde ein mehrstufiges Modell, welches aus einem relationalen (Oracle 10g/11g )und einem multidimensionalen (SQLServer 2005/2008 Analasis Service-SSAS) Teil besteht, gewählt. Die Auslieferung der Daten erfolgt abhängig von der Anforderung der Fachbereiche entweder aus dem RDBMS oder den aggregierten OLAP Cubes es SSAS.
Die Beladung des Oracle 10g/11g basierten RDBMS vom opertiven HOST System aus, erfolgte, wie auch die Replikation und Sicherung, mittels UC4. Da die tägliche Beladung der Stagingarea aufgrund der grossen extrahierten Datenmenge mehrer Stunden benötigte, und eine Vielzahl an unterschiedlichen Dateien verarbeite werden musste wurde UC4 als zuverlässliches Werkzeug eingesetzt.
Die Errechnung der Kennzahlen und Aufbau der CUBES aus den angelieferten Daten erfolgte, aufgrund von Abhängigkeiten zwischen den Daten, erst nach vollständig erfolgter Beladung der Stagingarea und wurde ebenfalls durch UC4 angestossen.
Zur Erkennung von Missbrauch und Trends, werden auf den DWH Daten Data Mining Methoden, welche fachlich abgestimmt sind und auf Anforderung erstellt werden, angewendet.
Da sich im DWH(RDBMS/MDBMS) sehr sensible Daten(Kreditkartennummnern/Codes/Stammdaten etc.) vorgehalten werden, und mehrer hundert Mitarbeiter mit der täglichen Auswertung der Transaktionsdaten befasst sind, wurde aus Sicherheitsgründen ein weiters Modell, basierend auf dedizerten Datamarts, welche auf die Anforderung der jeweiligen Fachbereiche(Credit /Debit /issuing /accquiring) abgestimmt sind, und somit nur eine engeschränkte Sicht auf die jeweils benötigten Daten ermöglichte, umgesetzt.
Der direkte Zugriff auf die Daten des DWHs wurde nur wenigen ausgewählten Benutzern(Power Usern) gestattet. Für den Grossteil der Benutzer, welchen die Daten nicht direkt in den jeweiligen Datenbanken zugänglich sind und auch das technische Hintergrundwissen nicht vorhanden ist, wird auf Anforderung Berichte erstellt, und über das MS Reporting Portal zur Verfügung gestellt.
Der direkte Zugriff auf die Daten des DWHs wurde nur wenigen ausgewählten Benutzern(Power Usern) gestattet. Für den Grossteil der Benutzer, welchen die Daten nicht direkt in den jeweiligen Datenbanken zugänglich sind und auch das technische Hintergrundwissen nicht vorhanden ist, wird auf Anforderung Berichte erstellt, und über das MS Reporting Portal zur Verfügung gestellt.
Implementierung: Java 5/6 | .Net C#(2.0/3.5) | PL/SQL | TSql | C++
Datenbank: Oracle 10g | Oracle Warehouse builder 10 | Oracle 11g | MSSqlServer 2005 | MSSqlServer 2008
Plattform:
Linux | Windows Server 2003| Windows Server 2008 | Windows XP | Windows 7
4/2008 – 8/2008
Tätigkeitsbeschreibung
Projekt: DataWareHouse Steuer im Rahmen von eFinanz 2008
Auftraggeber BMF und BRZ. Aufbau einer vereinheitlichten Datenbasis aller aktueller Steuer- und Zoll Applikationen mit dem Ziel des Aufbaus eines DWH- und BI Systems für Analyse und Reporting
__________
Zur Zeit ist eine übergreifende Analyse steuerrelevanter Daten, aufgrund redundanter und verteilter Datenhaltung nicht möglich ist. Daher ist es das Ziel des DWHSteuer Projekts eine vereinheitlichte Sicht aller steuer- und zollrelevanter Daten, tagesaktuell, in einem DWH System aufzubauen um ein vereinheitlichtes Kontroll- und Enscheidungswerkzeug zu schaffen.
Da mit täglich, hohem Datenvolumen und sämtlichen aktuellen österreichischen Steuer- und Zolldaten gearbeitet wird, gilt es nicht nur eine besonders hohe Durchsatz- und Berechnungsleistung beim Aufbau der DWH Würfel und Datamarts zu erzielen sondern auch den Schutz dieser sehr sensiblen Daten über alle Verarbeitungsstufen hinweg sicherzustellen.
Eingesetzte Technologie: IBM OS390 (als operatives Datensystem), IBM PL1 für die Extraktion der Daten vom operativem System, Oracle 10g, Oracles Warehouse Builder 10 unter Sun Solaris 10.
Implementierung: Java 5/6 | .Net C# | PL/SQL | OS390 PL1 | C++
Datenbank: Oracle 10g | Oracle Warehouse builder 10
Plattform: Sun Solaris 10 | IBM OS390
8/2007 – 3/2008
Tätigkeitsbeschreibung
Projekt: SendStation
Auftraggeber HPC Dual/HPC.
SOA basierter Dokumentgenerator und elektronisches multichannel
Zustellsystem
__________
Kern des Systems ist die Erstellung bzw. Anreicherung von Dokumenten anhand von definierten Metadaten Informationen. Als Zielausgabeformat sind Adobe .pdf sowie .xml Dokumente.
Das System ermöglicht weiteres die generierten Dokumente auf dem klassischen Weg per Post oder elektronisch zuzustellen (Duale Zustelllung).Für die elektronische Zustellung wurden drei Ausgabekanäle -digital signiertes email, registeredMail-email mit Abholvermerk und die Übergabe an einen Zustellserver-implementiert.
Da das System für einen hohen Durchsatz konzipiert wurde, mehrere 10000 Stück pro Anlieferung (Kunden), musste eine entsprechende Outputcenter-anbindung implentiert werden.
Eingesetzte Technologien: als OS Sun Solaris 10, Apache Tomcat 6, Java 6, Adobe Flex2, SWT (Sendstation Konnektoren auf Kundenseite), Spring, Java Persistence API, Hibernate, Apache Axis2 (Webservices), iText (zur .pdf Generierung) sowie Jaxb zur Verwarbeitung der .xml Nachrichten- und Datenströme, Postgres 8.2 für die Verwaltung der Meta- und Verrechnungsdaten.
Implementierung: Java 5 | Phyton | C++
Datenbank: Postgres 8.2
Plattform: Sun Solaris 10 | Linux
2/2007 – 6/2007
Tätigkeitsbeschreibung
Projekt: Virtual Merchandiser 2
Auftraggeber HPC
Virtuelle Shoplösung für den Gross- und Detailhandel
_________
Aufbau und Integration des Datenbankmodells. Als operatives Datenbanksystem kommt PostgreSQL 8.2 unter Ubuntu Linux zum Einsatz.
Migration des aktiven VM1 Datenbestandes aus einer MySQL 5 in das neue, leistungsoptimierte Datenbankmodell PostgreSQL basierte VM2 Modell.
Die Herausforderung bestand in der Konsistenzhaltung der VM2 Datenbank, da auch während der Entwicklung von VM2 Änderungen am Code sowie am Datenmodell der VM1 Applikation vorgenommen wurden. Somit musste der Qualitätssicherungs- und mehrstufige Bereinigungsprozess mehrmals vollständig umgeschrieben werden.
Weiters mussten Analyse- und Reportingmodelle NACH Kundenvorgaben für die Lagerstand- und Bewegungsdaten von VM2 entworfen und datenbankseitig implementiert werden.
Implementierung: C++ | Java 5 | Phyton | PGSQL | Adobe FLEX2
Datenbank: PostgreSQL 8.2
Plattform: Linux | Windows XP
9/2006 – 1/2007
Tätigkeitsbeschreibung
Projekt: LEP Simulation
Auftraggeber SBAU(Sparkasse)/HPC
Dataware House SBAU
_________
TSQL stored procedure/MS SQLServer 2000 EE
Optimierung der Datenwürfel des Anspar- und Darlehens Bestandes um die aggregierte Wertausprägungen für die Liquidations- und Ertragsplanungs Simulation eines beliebigen Zeitraums ad hoc extrahieren zu können.
Analyse und Restrukturierung des bestehenden SBAU DWH Designs.
Aufbau der STAGING Area mit reconstruct(anreichern) und cleansing(bereinigen) Prozessoren zur Sicherstellung der hohen Datenqualitßt für die LEP Simulation
Aufsetzen der DTS Import Prozessoren zur Beladung der Statging Area mit Parameter und Bestandsblöcken.
Implementierung: .Net C#(2.0) | TSQL | VBA | C++
Datenbank: MSSqlServer 2000 EE
Plattform:
Windows Server 2003 | Windows XP
7/2005 – 8/2006
Tätigkeitsbeschreibung
Projekt: Bulldog.NET
Risc Management/Oil- and Gas
Trading
_________
Vorgehensmodell zur Umsetzung:Anfänglich nach RUP, aufgrund der Schwerfälligkeit und der Teamgrösse erfolgte rasch der Wechsel zu Scrum
Eingesetzte Technologien:VB.NET/C# , Frameworks .NET/Syncfusion, MSSQL-Server 2005, TSQL stored procedures Programmierung, MS Access
Aufbau einer BI Lösung: Verteilung der Datawarehouse Prozesse durch Ausbildung dispositiver Systeme. Die Analysekerne befinden sich in vorgelagerten Data Marts um kürzsetmögliche Antwortzeiten zu gewährleisten.
Portierung und Redisign des vollständig MS Access basierten Bulldog Trading- und Risikomanagement Systems zur .NET-Umgebung. Als Umsetzungssprache wurde zur Maskenprogrammierung (rund 1000 Schirme) VB.Net gewählt. Die Umsetzung der Infrastrukturlogik wie Data Abstraction Layer und Systemcontroller erfolgte in C#.
Implementierung: .Net C# (1.0/2.0)| VB.Net(2.0) | TSql | VBA | C++
Datenbank: MSSqlServer 2000 | MSSqlServer 2005 | MS Access
Plattform: Windows Server 2003 | Windows XP
2/2004 – 3/2005
Tätigkeitsbeschreibung
Projekt: PBS AG/Stagingarea Unterstützungsprojekt EX2007
und PBS AG/DataMarts Unterstützungsprojekt EX2007
Auftraggeber Postbank System Bonn/BRD
Implementierung und Projektierung eine BASEL II Lösung für das Postbankeninternen Kredit- und Risikosteuersystem
_________
Erweiterung eines Datawarehousekernels und Ausbilden der Data Marts für dein Kreditsteuerungssystem im Rahmen einer Basel II Realisierung
Entwicklung eines Stagingbereichs (Plausibilisierung und Qualitätssicherung) und Data Warehousekernels (Abbildung der Geschäftslogik) für ein Kreditsteuerungssystem im Rahmen einer Basel II Realisierung
Implementierung: C++ | Java/J2EE | .Net C#(1.0) | C++ | Perl |PL/SQL
Datenbank: Oracle 9i/10g | Oracle Warehouse builder Paris
Plattform: Sun Solaris 10 | Windows 2000/xp / Linux
9/1991 – 1/2004
Tätigkeitsbeschreibungauf anfrage wird gerne das gesamte portfolio übergeben
Eingesetzte QualifikationenPower Bi, Microsoft Business Intelligence, Transact-Sql, Microsoft SQL Server Reporting Services (SSRS), Microsoft SQL Server Analysis Services (SSAS), MultiDimensional EXpressions, Oracle Business Intelligence (BI), Data Warehousing, Data Mining, Business Intelligence (BI), Qlikview, Reporting, Oracle Database, Mysql, Microsoft SQL-Server (MS SQL), Postgresql, ETL, Sybase, SQL, Datenbankentwicklung, IBM DB2, Embedded Linux, Embedded Systems, UNIX, Linux (Kernel), Computerprogrammierung, Adaptive Software Development (ASD), Kanban (Softwareentwicklung), Scrum, Feature Driven Development (FDD), Testdesign (IT), Software Design, UML, Objektorientierte Software-Entwicklung, Software Architecture, Linux Entwicklung, Perl, Python, Shell (CSH), Softwareentwicklung (allg.), C#, C++, C, JavaScript-Frameworks, JavaScript, It-Beratung
Ausbildung
Graz
Graz
Graz/Österreich
Über mich
Meine Projekte haben von meiner Expertise in der Anwendung und Verwaltung von Datenbanksystemen wie Oracle (8i-21c), MS SQL Server (2000-2022), PostgreSQL, MySQL und MS Access profitiert. Ich habe innovative Lösungen in Data Warehousing, Business Intelligence und Data Mining entworfen und implementiert, die auf Systemplattformen wie Windows (bis v8, Server 2012R2), Linux/UNIX (Solaris/AIX)/BSD auf x32/x64 und IA64-Architekturen zugeschnitten sind.
Meine Branchenerfahrung ist vielfältig und umfasst wissenschaftliche Instrumentierung, den medizinischen Bereich, Banken-, Investitions- und Finanzsektoren, Risikomanagement, Immobiliensektoren, Software Engineering (Design Patterns, Refactoring, Unit Tests), Kfz-Diagnose, Steuerungs- und Automatisierungstechnik (Lagerlogistik), Ressourcenmanagement und Telekommunikation. Diese breite Palette hat meine Fähigkeit gefestigt, branchenübergreifende Technologielösungen anzubieten und anzupassen.
In meiner beruflichen Laufbahn habe ich über 20 Jahre Beratungserfahrung, 10+ Jahre im Projektmanagement und 8 Jahre in der Mitarbeiterführung gesammelt, ergänzt durch 2 Jahre im Linienmanagement. Meine akademische Bildung umfasst ein Doktoratsstudium in technischer Informatik an der TU Graz (Abschluss 2006), ein abgeschlossenes Diplomstudium der Telematik/technischen Informatik und technischen Mathematik an der TU Graz (Abschluss 2004) sowie eine Ausbildung zur diplomierten Softwareentwicklerin (Abschluss 1992) mit Schwerpunkt auf Softwarearchitektur und objektorientierter Analyse/Design und Programmierung.
Meine besonderen beruflichen Interessen liegen in der praxisorientierten Softwareentwicklung in Teams, im kontinuierlichen Anforderungsmanagement zur Effektivitäts- und Effizienzsteigerung im Softwareentwicklungsprozess und im bestmöglichen Einsatz agiler Verfahren. Ich lege großen Wert auf das Refactoring komplexer Code-Basen, die Entwicklung dynamisch erweiterbarer Architekturen, die Anwendung von Test-Frameworks und die Implementierung agiler Perspektiven und Praktiken.
Meine Soft Skills umfassen Teamfähigkeit, Verantwortungsbereitschaft, Entscheidungsstärke, Führungsfähigkeit, Einsatzbereitschaft, Initiative, Kooperationsbereitschaft, Kommunikationsfähigkeit und Problemlösungsfähigkeit. Diese Fähigkeiten, kombiniert mit meiner technischen Expertise und meiner umfangreichen Erfahrung, machen mich zu einer wertvollen Ressource für jedes Team und Projekt.
Weitere Kenntnisse
- Softwareprogrammierung
- C++
- C
- Rust
- C# (LINQ; Host(WPF/WinForms/WCF) und Webentwicklung ASP.Net core, ASP.Net 4.0/ASP.Net MVC 4.0/Silverlight/Entityframework 6 and core 2.2),
- R-Language
- FORTRAN
- JavaScript (JQuery)
- Python
- SQL
- Data Warehouse/BI
- Datamining
- DataScience
- Big Data
- Datenbanken (allg.)
- Oracle
IT & Entwicklung
- Softwareentwicklung(Host)
- Datenbankentwicklung(pl/sql, sql/pl, python)
- Embedded Systems
- Frameworks
- IT-Architektur
- Business Intelligence
- Systemanalytiker
MSSQL, TSQL, PS/SQL, UML, XML, HTML, MDX, verteilte Systeme, .Net, AJAX, DirectX, OpenGL
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Italienisch (Grundkenntnisse)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden