Archiviertes Projekt - 37487 - Data Engineer (m/w/d) - Snowflake, DBT, Airflow
Firmenname für PREMIUM-Mitglieder sichtbar
- Juni 2024
- Dezember 2024
- D-Großraum München
- 96 € Stundensatz
- Remote
- 07.05.2024
- 37487
Projektbeschreibung
Seit über 25 Jahren unterstützen wir unsere Kunden bei der Implementierung, dem laufenden Betrieb sowie dem Training der Mitarbeiter für innovative Softwareprodukte. Für eines dieser Projekte sind auf der Suche nach tatkräftiger Unterstützung.
Eckdaten:
• Eintrittsdatum: 03.06.2024
• End-Datum: 31.12.2024
• Arbeitsort: remote (+ München)
• Kapazität: 1.160 Std. davon 95 %remote
• Konditionen = 96 EUR/h
Zum Projekt:
Die der Kunde betreibt ein modernes Data Warehouse im Techstack Snowflake, DBT, Airflow und weitere Komponenten.
Die Legacy Beladungsstrecken, basierend auf custom code und weitere Tools, sollen auf den neuen Techstack harmonisiert werden.
Im Zuge dieser Harmonisierung der Data Warehouse Landschaft, werden bestehende Datentransformationen und Beladungsstecken auf den modernen Techstack migriert.
Aufgabenbeschreibung:
• Analyse bestehender ETL-Pipelines.
• Migration von SQL Transformationen und Ladepattern aus dem historischen Techstack nach DBT und Airflow.
• Anpassung/Abbau der migrierten Ladestrecken im Legacy Techstack.
• Anpassung der Transformationen, um den DBT Syntax zur erfüllen.
• Durchführung von Daten- und Beladungstests und Behebung von Fehlern.
Fachl. Skills:
• Sehr gute SQL Kenntnisse
• Gutes Coding-Verständnis (in mindestens einer Marktrelevanten Programmiersprache, C, Python Java etc.)
• DBT (data build tool)
• Snowflake Computing
• Apache Airflow
Eckdaten:
• Eintrittsdatum: 03.06.2024
• End-Datum: 31.12.2024
• Arbeitsort: remote (+ München)
• Kapazität: 1.160 Std. davon 95 %remote
• Konditionen = 96 EUR/h
Zum Projekt:
Die der Kunde betreibt ein modernes Data Warehouse im Techstack Snowflake, DBT, Airflow und weitere Komponenten.
Die Legacy Beladungsstrecken, basierend auf custom code und weitere Tools, sollen auf den neuen Techstack harmonisiert werden.
Im Zuge dieser Harmonisierung der Data Warehouse Landschaft, werden bestehende Datentransformationen und Beladungsstecken auf den modernen Techstack migriert.
Aufgabenbeschreibung:
• Analyse bestehender ETL-Pipelines.
• Migration von SQL Transformationen und Ladepattern aus dem historischen Techstack nach DBT und Airflow.
• Anpassung/Abbau der migrierten Ladestrecken im Legacy Techstack.
• Anpassung der Transformationen, um den DBT Syntax zur erfüllen.
• Durchführung von Daten- und Beladungstests und Behebung von Fehlern.
Fachl. Skills:
• Sehr gute SQL Kenntnisse
• Gutes Coding-Verständnis (in mindestens einer Marktrelevanten Programmiersprache, C, Python Java etc.)
• DBT (data build tool)
• Snowflake Computing
• Apache Airflow
Kontaktdaten
Als registriertes Mitglied von freelance.de können Sie sich direkt auf dieses Projekt bewerben.
Kategorien und Skills
IT, Entwicklung:
Sie suchen Freelancer?
Schreiben Sie Ihr Projekt aus und erhalten Sie noch heute passende Angebote.
Jetzt Projekt erstellen