Senior Data Scientist: SAS, SPSS, Power BI, Google
- Verfügbarkeit einsehen
- 0 Referenzen
- 80€/Stunde
- 6052 Hergiswil (NW)
- Europa
- de | en | it
- 30.01.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
7/2023 – offen
Tätigkeitsbeschreibung
Aufgaben: Migration von Berichten und Analysen von SAS auf die Google Cloud-Plattform zur Optimierung und Verbesserung der Skalierbarkeit des Berichtswesens für den Kunden.
Reporting: Erzeugung von 1:1 PROC SQL Versionen auf der Grundlage der original SAS BASE Programme inkl. SAS Makros einschl. Übernahme der original Fehler. Nach erstem Ab-gleich, Ursachen-Analyse und Korrektur der gefundenen Fehler, Erweiterung um aktualisierte bzw. zusätzliche Features, anschließend UAT seitens des Fachbereichs. Übertragung des ab-genommenen SAS SQL-Codes in GoogleSQL Code (Google BigQuery, GBQ). Abgleich der er-zeugten Daten mit derjenigen der SAS SQL Version. Herausforderungen dieses zweifachen Migrationsschritt sind die unterschiedliche Flexibilität von PROC SQL im Vergleich zu SAS BASE und der SAS Macro Facility, sowie äquivalente Funktionen in GoogleSQL und SAS so einzusetzen, dass sie identische Ergebnisse erzeugen. Dokumentation und Visualisierung der Daten und Ergebnisse in DOMO. Programmierung von Vertriebs- und Marketingberichten in GBQ.
Business Analysis / Requirement Engineering: Dokumentation der Funktionsweise der ori-ginal SAS Programme (program flow) einschl. Maßnahmen zur Optimierung, z.B. Automatisie-rung ehemals manueller Schritte, Vermeidung unsicherer und unfreundlicher Programmierung, und Optimierung der Performanz. Verwalten und (Re-)Priorisieren von Aufgaben und Anfor-derungen. Extensives Testing umfasste Unit Tests, System Tests, und UATs. Kommunikation des Fortschritts (Arbeitsstand) und Dokumentation (Debugging, Änderungen) in Programmlis-ten und mit Verantwortlichen. Kommunikation von gefundenen Datenfehlern an Datenver-antwortliche des Unternehmens.
Werkzeuge: Google BiqQuery [GBQ] auf der Google Cloud Platform (“Analysis” einschl. BigQuery Studio, Scheduled queries), Enterprise Guide 8.2, DOMO 2.0.8.1 (Management Re-views, Niche Distribution etc.), OKTA, WORKDAY, Fuze AU, Google BigQuery, Qlik/Qliksense, Python. DOMO Training Session, Egelsbach/DE, 2024.01.03.).
Reporting, Business Analysis, Google Cloud, Qliksense, Requirement Analyse, SAS (Software)
4/2023 – 6/2023
Tätigkeitsbeschreibung
Project Mgmt: Wissenschaftlich-statistische Beratung, stellvertretende Projektleitung, Requirement Analysis, Stakeholder Mgmt.
Data Analysis / Modelling: Entwicklung mit Python zu Datenqualität, ETL, Hypothesentests u.a. zu Veränderungsmessung und Messwiederholungsdesigns.
Reporting: Visual Analytics: u.a. Customized Tables und Graphs mit Klinik Logo und Farben.
Werkzeuge: Python (Anaconda), Spyder; Libraries/Module: Pandas, SciPy.stats, Numpy.
Plotly (Graphic Objects, Express), Matplotlib, Seaborn; SciPy, Statsmodels, ResearchPy.
Data Science, Projektmanagement (IT), Python
1/2022 – 11/2022
Tätigkeitsbeschreibung
found in reference description 6
Requirements-Engineering und SAS Programmierung
Rolle: SAS Entwickler und Architekt im Bankenumfeld (Regulatory Reporting). Verarbeitung für das Meldewesen (MEWE, Meldewesen).
Aufgaben:
Business Analysis / Requirement Engineering: Planung und Aufbau der neuen COREP-Verarbeitungsstrecke (ETL) im Hinblick auf CRR3 (CAPA25-Architektur) mit dem Ziel, dass die Daten punktgenau für das Empfangs-Schema der BZB bereitstehen. Analyse der alten Adapter-Strecke (Module). Priorisieren von regulatorisch-technischen Anforderungen (Use Cases, Wiederholungsläufe, Data Lineage usw.). Entwicklung und Test (z.B. modular und funktional) des geschriebenen SAS Codes. Dokumentation im QC. Architektur- und Imple-mentierungs-Roadmaps inkl. Meilensteinen, WorkPackages und Planungshorizonten (u.a. SAS Viya). Regelmäßige Kommunikation mit Fachbereich und Entwicklern (SAS-COREP und Ar-chitektur).
Data Modelling: Projekt OST («Offene Schnittstelle»): Reparatur von DepotA, MoC, sowie Encumbrance. Fehlerbehebung, technische Anpassungen (RDS), sowie funktionale Optimie-rungen. Programmierung und Test von Prototyp «OST 2.0».
Reporting: Sicherstellen des Fits zwischen der Struktur der gelieferten Datentabellen und dem Raster der empfangenden Tabellen, v.a. «OST» und BZB (asynchrone ThirdParty-Systeme).
Werkzeuge: SAS Enterprise Guide, Host (Endevor, Linux), IDz (IBM Developer for z/OS), QC (Application Lifecycle Management), UltraEdit(sas.uew), WinSCP, PUTTY, DbVisualizer Pro, WebEnabler, 3270 Session Starter, Jedit, ETAPS, TWS(aka IWS), BetaView(Beta92), SR+, ITIM (IBM Identity Management), Confluence(Atlassian), Skype/WebEx, Zebra, Citrix Frame, MS Project, MS Visio, MS Office Apps usw.
Anmerkungen: Remote: 60%, on-site: 40%.
Finanz Informatik (Hannover, DE) 2022.01.07-2022.04.30
SAS Programmierung und Requirements-Engineering
Rolle: SAS Entwickler im Bankenumfeld (Regulatory Reporting, Vorverarbeitung für das Meldewesen (BMWD, Basismehrwertdienste).
Aufgaben:
Business Analysis / Requirement Engineering: Verwalten und (Re-)Priorisieren von Anfor-derungen. Regelmäßige Kommunikation in BMWD Stand-Ups. Wöchentliches Tracking des Gesamtfortschritts in Meetings mit Entwicklern einschl. SCD und Finanzgeschäfte.
Data Analysis / Modelling: Entwicklung in SAS (DATA Step, SQL, SAS Macro) und DB2 SQL. Testen (z.B. modular und funktional) des entwickelten SAS Codes. Dokumentation der Tests im TestLab des Quality Centers (ALM). Debugging von Fremdcode, Behebung von Feh-lern, Programmierung und Testen von Prototypen.
Werkzeuge: SAS Enterprise Guide, Host (Endevor, Linux), Application Lifecycle Manage-ment ("Quality Center"), UltraEdit(sas.uew), DbVisualizer Pro, WinSCP, PUTTY, Xming, We-bEnabler, 3270 Session Starter.
Reporting, Application lifecycle management (ALM), Business Analysis, Requirement Analyse, SAS Business Intelligence (BI)
2/2021 – 12/2021
Tätigkeitsbeschreibung
Business Analysis / Requirement Engineering: Verschiedene, in SAS 9.4 geschriebene Kreditrisikomodelle z.B. Dutch Mortgage LGD, CPF PD, LGD, und EAD auf die zentralisierte SAS Viya 3.5 Plattform übertragen. Analyse der ursprünglichen ING SAS 9.4 ISDs und der Samm-lung von Requirements für das Umschreiben von Code vor der Implementierung. Zu den Re-quirements gehörten die Standards von SAS 9.4/Viya 3.5, die Korrektheit des Codes und der Statistiken sowie die Angemessenheit der aktuellen Architekturstandards. Präsentation über Erkenntnisse und Lösungen zur Erreichung der Ziele der MPS-Initiative (verbesserte Transpa-renz der Prozesse und Zusammenarbeit zwischen Abteilungen und Ebenen). Agiler Approach: Standups, Epics/Storys/Aufgaben, Backlogs/Refinements/Sprints, Demos/Retros. ING wird in ihrem agilen WOW hoch bewertet.
Data Analysis / Modelling: Ziel war die Replikation alter CR Funktionalitäten in modernem CAS-Code bzw. neuer Architektur. Der Code wurde in SAS Viya (Studio) unter Verwendung von BASE oder DS2 neu geschrieben und getestet (Unit etc.); der validierte Modellcode wur-de in SAS Decision Mgr und Model Mgr übertragen. SAS Model Mgr (Modell-Deployment; Registrierung von Modellen und Durchführung technischer Tests). SAS Studio zur Erstellung von eigenem Code. SAS Visual Analytics für spezielle Analyseprojekte, z.B. Ergebnisvariation. Sicherstellen, dass Strukturen neu gelieferter Ergebnisdatentabellen für Schnittstellen zu Reports unverändert bzw. optimiert sind.
Umgebung: Windows 365, ServiceNow, Confluence, Sharepoint, ING Citrix Ac-cess/Authenticator, Aveska/ACE etc.
Werkzeuge: SAS Viya 3.5 (Compute Server, CAS), SAS Studio (Enterprise) 5.2 (Develop SAS Code), SAS Risk Model Manager, SAS XML Mapper 94. Sonstiges: z.B. ServiceNow Backlog Mgmt, Azure DevOps.
Inhouse-Schulungen und Zertifizierungen: Banker's Oath, KYC, PIP, AML/Fraud, Fraud Awareness, Agile Basics for New Joiners, einige Spezialschulungen von SAS Institute usw.
Impact: Spürbare Fortschritte durch die Implementierung von CR-Modellen in SAS Viya.
Business Analysis, Requirement Analyse, SAS Business Intelligence (BI)
3/2020 – 9/2020
Tätigkeitsbeschreibung
Business Analyse: Data Quality, Data Lineage, und Data Governance:
Business Analysis / Requirement Engineering: Stakeholder Mgmt: Abholen der Require-ments; Unterstützung bei Initiativen zu Data Quality, Data Lineage, und Data Governance: Pflege und Verwaltung von Datenattributen durch ein gemeinsames Datenmodell. Erstellen und Verwalten von business terms. Analysieren von Beziehungen zwischen Datentransfor-mationsjobs und Datenmodellen von SAS und Drittanbietern. Ausrichten von Business und IT, MDM für eine einzige Sicht. Erstellung und Austausch von Informationen über DG Initiativen.
Data Modelling: Unterstützung bei der Vorbereitung von SAS-Programmen für Cloud Analytic Services (CAS). Umschreiben von Original-SQL in FEDSQL-Versionen. Ausführliche Tests: SQL, SAS fedSQL, Viya fedSQL. Schwerpunkt auf federated queries (hauptsächlich Oracle) und expliziten/impliziten Pass-Throughs. Überprüfung der Verarbeitung im Detail, z.B. angemessene Behandlung von Datums- und Zeitwerten in CAS.
Impact: BA Rolle: Informationszugewinn. DE Rolle: Spürbarer Leistungsverbesserung in der Datenverarbeitung.
Umgebung: Windows 10.
Werkzeuge: SAS9.4, Viya.
Datenanalyse, Business Analysis, Requirement Analyse, SAS Business Intelligence (BI)
5/2019 – 12/2019
Tätigkeitsbeschreibung
Project Mgmt: Business Analysis / Req Engineering der Datenflüsse und Ebenen der Produktionslinien gemäß den ISA-95-Standards (und später). Von den Sensoren in der Produktion bis hin zu MES und FabEagle etc. Integration von verteilter Dokumentation. Konzeptionelle Erweiterung des bestehenden Betriebsplans um Umweltvariablen wie z.B. Kontamination. Ablösung manueller Prozesse durch automatische Berichte. Fabrikweite Workshops, um sicherzustellen, dass alle betroffenen Abteilungen teilnehmen und sich auf die erforderlichen KPIs und deren Definitionen einigen. Schnittstelle zu international verteilten Projekten (z.B. Deutschland, Italien, Ungarn, Brasilien).
Data Analysis / Modelling: Managte und koordinierte mehrere Datenanalyseprojekte zur Analyse, Optimierung und Vorhersage von Daten von Prozessen, Ausstattung und Produkten mit statistischen Methoden. Beginn der Lösung von DQ-Anomalien. Entwicklung von Prototypen aus verschiedenen Quellen auf der Grundlage von Ansätzen wie SPC, 6Sigma, Data Mining, Visual Analytics und Event Forensics. Data Mining beinhaltete die automatische Auswahl der u.a. "Top Ten" der instabilsten Prozess-KPIs. Funktionaler PoC mit Power BI und anderen.
Reporting: Entwerfen und Automatisieren von Routineanalysen (JMP), Berichten (FabEagle) und Dashboards (CroNet, Power BI) für die unternehmensweite Prozessentwicklung und -produktion. Visualisierte intuitive Daten, z.B. auf die Produktionslinie ausgerichtete Heatmaps oder interaktive Parallel-Koordinatendiagramme. Die Analytik umfasste Zielanalyse und Assoziationen unter produktionsweiten KPIs.
Impact: Eine aktualisierte Dokumentation der Produktionsdaten und "beleuchtete" Black Boxes ermöglichten aufschlussreichere Analysen. Automatisierte Prozesse sparten Stunden manueller Arbeit, gezielte Fehlerbehebung und verringerten die Verluste durch Ausfallzeiten.
Umgebung: Windows 10.
Werkzeuge: JMP 15.0/14.0, Visio, Power BI. FabEagle, Trendpanel, CroNet.
Data Science, Data Mining, Reporting, SAS (Software), Projektmanagement (IT)
4/2018 – 3/2019
Tätigkeitsbeschreibung
Implementierung eines Management-Berichtssystems gemäß BCBS-239 Standards
Rolle: SAS Team Lead (Product Owner “BCBS”)
Aufgaben:
Project Management: Leitung des SAS-Teams, Aufnahme und Aktualisierung der Requirements, Business Analysis: u.a. Mapping der Input-Datenquellen und SAS-Spezifikationen mit den erforderlichen Berichtsausgaben, die Definition und das Tracken komplexer ETL-Prozesse dazwischen. Lösungen finden, z.B. asynchronen Datenlieferungen. Schnittstelle zu u.a. Fachbereich, IT und Board. Erfolgreicher Workshop, der gegenseitiges Verständnis und gemeinsame Sprache über eine komplexe proprietäre Datenverarbeitungsumgebung ("SAS Batch Framework") erarbeitete. Sammeln und Monitoren der Requirements für die Reports. Stakeholder Mgmt, Meetings, Kommunikation des Fortschritts etc.
Data Analysis / Modelling: Umfangreiche SAS-Programmierung: Gründliche Prüfung der technischen Qualität und inhaltlichen Richtigkeit der gelieferten Daten, einschließlich Fehlerbehebung, Dokumentation und Kommunikation. Umwandlung dutzender Einzelberichte (einige davon sogar manuell oder Excel-basiert) in ein automatisches, bankweites SAS-basiertes Management-Berichtssystem gemäß BCBS 239-Standards. Gestaltung der Berichte (Schablone, Corporate Design, Standards für das Bankberichtswesen). Umsetzung weiterer Anforderungen: z.B. Barrierefreiheit, TimeStamps.
Umgebung: Windows 10.
Werkzeuge: EG7.1 (SAS9.4, SAS9.3), Jira, Visio.
Languages: SAS Base, SAS Macro Facility, PROC SQL.
Proprietary Applications: “SAS Batch Framework”.
Datenanalyse, Reporting, SAS Business Intelligence (BI), Projektleitung / Teamleitung (IT), Requirement Analyse
1/2018 – 3/2018
Tätigkeitsbeschreibung
Design und Implementierung eines Reporting-Systems (Projekt “MonSter”)
Aufgaben:
Business Analysis / Requirement Engineering: Schnittstelle zum Fachbereich. Aufnahme und Hinterfragen der Requirements. Migration einer fehlerhaften proprietären Excel-Anwendung in ein hochleistungsfähiges SAS-Makro. Automatisierung verschiedener Daten-importe [u.a. EMESSO, STORNO, INCASSO]. Ausrichtung und Konsistenz der anwendungs-weiten Metadaten.
Data Analysis / Modelling: Replikation von Prozessen und Berechnungen von Original-Excel-Analysen mittels SAS Code und Makros. Weitere Optimierungen während der Migra-tion: Umstellung von mathematischen auf Kalendertag-basierten Berechnungen; Implemen-tierung spezieller Berechnungen inkl. Fälligkeit, Vormonats-Deltas etc.; Eliminierung von Dubletten aus den original Excel-Datenbeständen; Vereinheitlichung der Adressdaten für Marketing-Mailings. durch die neue Anwendung replizierten Ergebnisse wurden extern veri-fiziert und waren ausnahmslos korrekt.
Reporting: Generierung benutzerfreundlicher Berichte: Unterschiedliche (getestete) Be-richtsdesigns durch Hintergrund und traffic-lighting für geschäftsrelevante Werte zur Diffe-renzierung zwischen unterschiedlichen Bereichen. Automatische kanalspezifische Vertei-lung der Berichte (E-Mail). Trotz eines höheren Funktionsumfangs, z.B. erweitert um weitere Berichte und Funktionalitäten, konnte die Bearbeitungszeit von 9 Stunden auf 12 Minuten gesenkt werden. Ein „Einfrieren“ trat nicht mehr auf. Bedienung dieser leistungsfähigen SAS-Anwendung durch ein benutzerfreundliches Cockpit mit wenigen „Schaltern“, u.a. für das Anfordern von Berichten, Daten-Screenings und Datenaktualisierungen.
Werkzeuge: EG7.1 (SAS9.3).
Languages: SAS Base, SAS Macro Facility, PROC SQL.
Dr. C. S. erhielt für seine Leistung den [...] Award.
Datenanalyse, Reporting, Requirement Analyse, SAS (Software)
10/2017 – 12/2017
Tätigkeitsbeschreibung
Forderungsmanagement: SAS Reporting u.a. mittels Reverse Engineering einer Black Box Applikation
Role: SAS Risk Consultant
Aufgaben:
Business Analysis / Requirement Engineering: Stakeholder-Mgmt. Schnittstelle zum Fachbereich. Tätigkeit im Forderungsmanagement, Visualisierung und Dokumentation der validierten SAS Version (Ersatz der "Black Box") u.a. mittels Entity-Relations-Diagrammen, gezeichnet mit draw.io. In Workshops wurden Design und Daten geprüft; die Berichte entsprachen den Anforderungen des Managements und den Prüfungsstandards.
Data Analysis / Modelling: Entwicklung verschiedener Berichte mit SAS, u.a. zu Mahnstufen (Dunning levels), Änderungen von Ratenplänen, CC1-CC5 Status ("Aktenübersicht"), Wirksamkeit der ausgehenden Telefonie ("Zusagen") etc. Überprüfung der Qualität manuell erstellter Datenlieferungen Dritter. Replikation und Dokumentation einer "Black-Box-Applikation" (third party) in SAS, die ursprünglich in Oracle PL/SQL geschrieben wurde.
Reporting: Forderungsmanagementberichte automatisch als Self-Service Visualisierung in Power BI, Sisense, und als gebrauchsfertige Excel-Dateien mit traffic-lighting der relevanten Zahlen bereitgestellt.
Umgebung: Windows 10.
Werkzeuge: EG 7.15, DBeaver 4.2.3, Sisense 6.7 (inkl. Elasticube Mgr), Power BI, draw.io (Confluence), Slack etc.
Sprachen: SAS Base, SAS Macro Facility, PROC SQL, ORACLE PL/SQL.
Proprietäre Anwendung: SUBITO, KSYS.
Power Bi, PL/SQL, Reporting, SAS (Software)
4/2017 – 8/2017
Tätigkeitsbeschreibung
Forecast Pilot für ein Datengestütztes Wechselgeld-Bestellsystem
Role: Data Scientist
Aufgaben:
Project Mgmt: Expertenrat zur Machbarkeit eines "Systemgestützten Wechselgeld-Bestellsystems". Aufnahme der Anforderungen. Konzeption einer statistischen Analyse von Transaktionsdaten in Echtzeit, sowie Workshops und Präsentation der Ergebnisse. Ausarbeitung und Diskussion verschiedener Szenarien, z.B. einmalige und wiederholte Standard-Bestellvorschläge.
Data Analysis / Modelling: Planung der Datenanalyse und explorative Modellierung im Rahmen des Piloten. Tägliche Wechselgeldbestellungen von mehreren hundert Einzelhandelsmärkten über zwei Jahre hinweg. Hybrider Ansatz zwischen Statistical Process Control und Zeitreihenanalyse inkl. Lösungen für Geschäfts- vs. Kalenderwochendilemmas. Robuster Ansatz von Datenquelle zu internen Dashboards und Excel Sheets inkl. traffic-lighting relevanter Ergebnisse. Verschiedene Zeithorizonte (Monat, Quartal, Jahr), sowie verschiedene Intervalle zur Vorhersagegenauigkeit.
Impact: Die entwickelte SAS-Lösung ermöglicht Sichten auf den gleichen Bestellprozess aus verschiedenen Analysewinkeln (visuell und statistisch). Die Fallstudie ermöglicht es jedem Markt, Barmittel zu bestellen und gleichzeitig die relevanten Kostenfaktoren des Bargeldlieferungssystems (Münzgewicht, Transport) zu kontrollieren. Das Management genehmigte zwischenzeitlich die Implementierung dieses Ansatzes europaweit. Die erwarteten Einsparungen liegen alleine im Business Case in Millionenhöhe € p.a.
Umgebung: Windows.
Werkzeuge: SASv9.4.
Sprachen: SAS Base, SAS/OR, SAS/STAT, SAS/GRAPH, SAS Macro Facility, ODS.
Data Science, Datenanalyse, SAS (Software), Requirement Analyse
10/2014 – 6/2017
Tätigkeitsbeschreibung
Analytics-getriebenes Reporting, u.a. EBAS, KATE, Stornofrühwarnsystem
Roles: SAS Program Manager, Project Manager Data Mining (Product Owner “EBAS”)
Aufgaben:
Project Mgmt: Schnittstelle u.a. zwischen Fachbereich, Außendienst bzw. Vertrieb und C-Level. Unterstützung des Managements und des Teams mit fortgeschrittenem Datenmanagement, Data Mining / Analysefähigkeiten, Anpassung an schnell wechselnde Anforderungen, sowie Multi-Tasking in einer schnelllebigen Umgebung eines großen Versicherungsunternehmens. Design, Entwicklung und Test diverser komplexer Geschäftslogiken (1) zur Überwachung stornierender Makler: Business Impact: 900+ Millionen € p.a. (2) Entwurf und Implementierung eines „Future Monetary Risk Warning System“, das es dem Vertrieb erleichtert, hochwertige Kunden rechtzeitig vor ihrem Wechsel zu identifizieren und anzusprechen. Business Impact: 100+ Millionen € p.a. (3) Aufdeckung von Betrug: Identifizierung von betrügerischen Verkäufern durch Musteranalyse bei der Kündigung alter und der Vermittlung neuer Verträge, spezielle Musteranalyse von Vertragsverschiebungen und Identifizierung gefälschter Adressdaten. Kommunikation, Test, Abnahme und Dokumentation der verschiedenen organisatorischen, technischen und personalen Schnittstellen.
Data Analysis / Modelling / Reporting: Reverse Engineering des strategischen Geschäftsberichtssystems für den Außendienst: Portierung (Migration) dysfunktionaler ETL- und Analyseprogramme (SPSS) in eine hochleistungsfähige SAS-Version bei gleichzeitigem Debugging, Tuning und Verbesserung on-the-fly. Bereitstellen umfangreicher Datentabellen für Dashboards und Reports. Dashboards: Entwickelns des Dashboard Designs (Infonea, CommaSoft): KPIs (A,B,C), Zielgruppe (Rollen), Berichtsvarianten (Usability: mgmt: condensed / tech: detailed / op: focused), Tracking der Umsetzung der konsolidierten Anforderungen an Look-and-Feel (Oberfläche: Logos, Corporate Design, Barrierefreiheit; Benutzererlebnis: Interaktionen: Drill-Funktionalitäten, Links, Features).
Umgebung: Host (z/OS), Citrix XenApp, Windows. Datenvolumen: 255+Millionen Zeilen.
Sprachen: SAS Base, SAS Macro Facility, PROC SQL; SAS/STAT, SAS/GRAPH.
Werkzeuge: SASv9.4/9.3, Enterprise Guide 7.1/5.1, Enterprise Miner 14.1, SPSS 24, SAS VA.
Proprietäre Anwendung: EBAS, Storno, KATE, sonstige.
Data Mining, Data Science, Datenanalyse, Spss, Reporting, Requirement Analyse, SAS Business Intelligence (BI), SAS (Software)
5/2014 – 8/2014
Tätigkeitsbeschreibung
Rolle: “Task Force”(System Analyse und Management Consulting)
Aufgabe:
Analyse und Stabilisierung einer DWH Landschaft. Wichtige Prozesse in der unternehmensweiten Systemlandschaft des Kunden schienen immer mehr Leistung, Zuverlässigkeit und Stabilität zu verlieren. Die allererste Priorität war, mögliche Ursachen des Bremsens dieser ausgewählten Prozesse analysieren, zuerst beschränkt auf die Analyse von Korn Shell-Skripten, SAS Programmen und SAS Makros. Diese erste Analyse zeigte, dass der betroffene Prozess nur ein Symptom, nicht die Ursache war. Die Rolle wurde erweitert, um Informationen über Ursachen zu sammeln, die möglicherweise das ganze System bedrohen. Ansätze involvierten die Identifizierung und Kommunikation mit Stakeholdern, das Sammeln und Validieren von Information, das Design einer Issue Map mit einer graphischen Lokalisierung der Bedrohungen und Risiken innerhalb des Systems des Kunden, und das Komprimieren komplexer Informationen auf knackige Zwischenergebnisse zur Präsentation vor dem höheren Management. Angewandte Methoden waren u.a.: Business Analysis (Stakeholder / Daten Flows, OEs, etc.), Downtime Threat/Impact Analysis, Risk Analysis, Architectural Analysis, Aufwandsschätzungen für das Project Mgmt zur Bekämpfung identifizierter Issues für Quick-Wins. Verantwortung der Rolle wechselte nochmals, um technische Konzepte, Road Maps, und Projektpläne zur Stabilisierung des unternehmensweiten Systems zu entwickeln einschliesslich “Leuchtturm”-Lösungen mit Nachhaltigkeit auf Basis von state-of-the-art Hardware, Software und Computing vorzuschlagen.
Werkzeuge:
u.a. SASv9.1.3, EGv4.2, MS Project v2013, MS Excel v2013, BIP (Batch Import Procedure) Tool v1.1.4, Alerting and Monitoring (AMT) Tool v1.6 (AZD)
Erfolge:
Positives Feedback für das Umsetzen eines vielschichtigen Jobs in einer hochtaktigen Umgebung, das Lösen einiger Issues “im Vorübergehen”, erfolgreiches Identifizieren von Bedrohungen (auch bislang unbekannter), und das Kommunizieren von Professionalität, Perspektive und Zuversicht. Kurzfristiger “Notfall” Vertrag verlängert, weitere Zusammenarbeit in Aussicht gestellt.
Projekt überlappend mit Pharma Intelligence Projekt.
Business Analysis, Microsoft Powerpoint, Requirement Analyse, SAS Business Intelligence (BI)
3/2014 – 8/2014
Tätigkeitsbeschreibung
Aufgabe und Erfolge:
Entwicklung, Test und Ausführung von SAS Programmen zur statistischen Analyse von pharmazeutischen Daten aus dem Diabetes Umfeld. Wissenschaftliche Beratung umfasste statistische Analyse, Entwicklung und Test von komplexen ETL Routinen für den Zugriff, Verarbeitung und Analyse von Daten verschiedener Quellen und Formate, Diabetes-bezogener Input aus Studien betreut in der Vergangenheit für internationale Meetings, Überwachung der Qualität der Datenlieferungen von Drittanbietern bis hin zur Intervention, um Kunden vor schmutzigen Daten zu schützen, Prüfung der Performanz von SAS Programmen Dritter, und falls nötig, entsprechend Fehlerbehebung und Tuning dieser SAS-Programme. Die SAS Programmierung erfolgte gemäß SOP BIO5 (KKS), die Validierung der SAS Programme gemäß SOP BIO6 (KKS). Die Rolle umfasste SAS Programmierung ohne Arbeitsbeschreibung, hauptsächlich auf informellen „Zuruf“.
Werkzeuge:
SAS9.3, SAS Base, SAS Macro Facility, PROC SQL.
Datenanalyse, Reporting, Requirement Analyse, SAS (Software)
11/2011 – 2/2012
Tätigkeitsbeschreibung
Impact: Erfolgreiche Entwicklung des statistischen Hochrechnungsalgorithmus für den Zensus 2011 in Form von leistungsstarken und benutzerfreundlichen SAS Makros. Anpassung der Zellen an die prognostizierten Randsummen von 1.440 Gemeinden in 65 Modellvarianten (Volumen: 5,5+ Milliarden Datenzeilen), insgesamt 93.600 Modelle, sowie Visualisierung der zahlreichen GoF-Parameter. Bitte sehen Sie die positive Referenz des IT.NRW ein.
Business Analysis / Requirement Engineering: Schnittstelle zum Fachbereich. Aufnahme der Requirements, und kritisch-konstruktive Analyse der bislang geleisteten, disparaten Vorarbeiten. Brücken finden.
Data Analysis / Modelling: Das Verfahren folgte Bishop, Fienberg und Holland (2007): Modell-Vorauswahl durch Abgleich der geschätzten Tabelle mit Referenztabelle anhand AIC, Pearson Chi2 und Log-Likelihood für die log-linearen Modelle 1 bis 65. Modell-Feinauswahl anhand minimaler Abweichung (Devianz) der vor-ausgewählten Modelle von den Zellbesetzungen der Referenztabelle (Kombinatorik aus Alter, Nationalität, Familienstand und Geschlecht), zusätzlich unter Berücksichtigung der Gemeindegröße zum Ausschluss von Schätzfehlern und ggf. disproportionale Zellhäufigkeiten. Eine Besonderheit dieser Anwendung ist, dass sie zahlreiche Funktionalitäten in ein einzelnes ETL Modul zusammenfasst, das als SAS Makro unüberwacht als Stored Process ausgeführt werden kann. Die SAS Admins der IT.NRW beurteilten dieses Makro gerade angesichts der hohen Datenlast als sehr performant. Dieses ETL Modul aus zwei inhaltlich funktional disparaten Phasen: Die erste Phase liefert u.a. iterativ über PROC IML (CALL IPF) für jede Gemeinde für jedes der 65 Modelle die Datentabellen, die zweite Phase berechnet dafür gleichermaßen iterativ u.a. Goodness of Fit-Tests, deren essentiellen Parameter formatiert und als zentrale SAS Datasets aggregiert werden. Darüber hinaus legt dieses Makro u.a. Kriterien zur (nicht) erfolgreichen Konvergenz (u.a. Chi2, maximale Differenz, N Iterationen), sowie voreingestellte Stoppkriterien (maximale Differenz, maximale Iterationen) in eine separate SAS Datei ab. Das Modul mit dem Schwerpunkt Analyse führt neben den Goodness of Fit- auch Devianz-Werte in intuitiv interpretierbare Visualisierungen über. Ein "Cockpit" mit diversen "Schaltern" erlaubt dabei die gewünschte Visualisierung festzulegen, wie auch den Input (Gemeinden, Bundesländer, alle) unterschiedlich fein einzustellen.
Technische Umgebung: Front-End: Enterprise Guide v4, Back-End: SAS 9.2 über CITRIX bzw. Server direkt. Datasets: SAS Datasets (z.T. ORACLE, z.T Teradata), N: 100.000+. Größe: z.B. 250+ GB. Datenvolumen: 5,5+ Milliarden Datenzeilen (Hauptanwendung). Programmiersprachen: SAS Macro Facility, darin u.a. SAS Base, PROC IML, SAS Hash Programming, und PROC SQL. Programmausführung: Hauptanwendung als SAS Stored Process direkt auf dem Server, Entwicklung und Testen auf CITRIX. Laufzeiten: z.B. 96 (sechsundneunzig) Stunden (Hauptanwendung), auf 4 Kerne verteilt.
Reporting, Business Analysis, Datenanalyse, Requirement Analyse, SAS (Software)
Zertifikate
Ausbildung
Halle-Wittenberg
Über mich
SAS Global Certifications:
SAS Base Programming for SAS 9 * (2016).
SAS Advanced Programming for SAS 9 * (2016).
SAS Statistical Business Analyst Using SAS 9: Regression and Modeling (scheduled for 2017).
SAS Trainings:
Analytics/Mining:
SAS Visual Analytics: Introduction by SAS Institute at ERGO (2017.03.13)
Einführung in die Datenanalyse mit der SAS Enterprise Miner Software (AAEM61, 2010).
Predictive Modeling with SAS Enterprise Miner: Practical Solutions (Sarma, 2013).
SAS Enterprise Miner Documentation 4.1 (August 2003).
Basic Statistics Using SAS Software (BSTS, August 1998).
Statistics 1: Introduction to ANOVA, Regression, and Logistic Regression (released 2010).
Statistische Datenanalyse mit der SAS/Software – Einführung und Grundlagen (STAT1, 2000).
Predictive Modeling Using Logistic Regression / Modellbildung mittels logistischer Regression (PMLR, 2000).
Multivariate Statistical Methods: Practical Applications (AMUL, March 1997).
Grundlagen der SAS Software (GKPRO, Juli 2005).
Neue Features in Version 8 des SAS Systems (NASH, Februar 2001).
Programming:
SAS Macro Language 1: Essentials (released 2014).
SAS Programming 1: Essentials (released 2014).
SAS Programming 2: Data Manipulation Techniques (released 2014).
SAS Programming 3: Advanced Techniques and Efficiencies (released 2015).
SAS SQL 1: Essentials (released 2014).
SQL Processing with the SAS System (58231, May 1992).
Programmierung mit der Base SAS Software (PRGR, January 2000).
Advanced SAS Programming Techniques and Efficiencies (APRO, July 1998).
SAS Macro Language (MACR, August 1998).
SAS-Makro-Programmierung: Eine Einführung (URZ, H.Geißler & C.Ortseifen, 1996).
Other:
Einführung in SAS auf dem Großrechner (URZ, C.Ortseifen, 1990). *
e-Learnings:
Analytics/Mining
Introduction to Statistical Concepts (released 2013). *
Statistics 1: Introduction to ANOVA, Regression, and Logistic Regression (released 2015). *
Predictive Modeling Using Logistic Regression (revised 2014). *
SAS Enterprise Guide 1: Querying and Reporting (EG 7.1).
SAS Enterprise Guide 2: Advanced Tasks and Querying (EG 7.1). *
SAS Enterprise Guide: ANOVA, Regression, and Logistic Regression.
Creating Reports and Graphs with SAS Enterprise Guide (EG 7.1).
SAS Tutorials
Tools
SAS Enterprise Guide: Writing and Submitting SAS Code: SAS Enterprise Guide Editor.
Analytics/Mining
SAS Enterprise Miner: Replacing unwanted numeric values using the HP Transform node.
Rev Up Your RPM's: A Modeling Sampler, Parts 1-4.
Profiling Segments.
Profiling a Target Variable Before a Predictive Model.
Imputing Missing Values.
Programming
Modernizing Your SAS Code: Intermediate and Advanced Topics Video Library.
SAS Distributed Processing Video Library.
SAS Parallel Processing Video Library.
SAS Programming 1 - 3: Additional Topics Video Library.
Other Trainings: Analytics:
2012.10.31 PISA Workshop: Computations with weights (University of Bern, CH).
2010.01.14–15 Methods of Market/Media Research (GfK Switzerland, CH).
2008.11.05–06 Roche® Role “Statistician” at Roche Diagnostics, Penzberg DE.
Training on the job.
Standards:
DFG Deutsche Forschungsgemeinschaft
CRISP-DM 1.0 Cross Industry Standard Process for Data Mining
Weitere Kenntnisse
Python Expertise:
Python 3 on Anaconda Navigator
Preferred IDEs, Modules und Libraries:
IDE: Spyder
Data Science: Numpy, Pandas, SciPy.
Data Visualisation: Matplotlib, Seaborn, Plotly.
Machine Learning: Scikit-Learn, Tensorflow, Pytorch.
Others: OS, JupyterLab/Notebook, Pycharm.
Other experience:
More than 25 years of hands-on application of research methods and statistics at advanced level:
• Theory of measurement and testing, hands-on experience in Applied Statistics.
• Design of Studies, Surveys and Experiments (incl. sampling and weighting).
• Statistical and mathematical multivariate methods and analysis (incl. Bayes statistics).
• Preferred statistical analysis systems: SAS, Python, and SPSS.
• Scientific Consulting incl. concepts, demonstrations, appetizer analyses, and presentation.
• Development of professional statistics courses on a high scientific level.
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Italienisch (Grundkenntnisse)
- Europäische Union
- Schweiz
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden