Data Scientist & Engineer
- Verfügbarkeit einsehen
- 0 Referenzen
- 70€/Stunde
- 41812 Erkelenz
- auf Anfrage
- de | en | es
- 16.11.2024
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
6/2024 – offen
Tätigkeitsbeschreibung
• Training eines Large Language Modells zur Zusammenfassung von individuellen Textdokumenten und Steuertexten
• Aufteilung eines Textdokuments in Chunks, Erstellung von Embeddings, Abspeicherung in einer Vektor-Datenbank und Nutzung des LLMs mit LangChain
• Entwicklung einer Webapp mit Streamlit, auf welcher Nutzer Textdokumente hochladen und Fragen zum Inhalt des Dokuments formulieren können
• Nutzung des Large Language Modells zur Beantwortung von Fragen zu Textdokumenten
Verwendete Tools: Python, OpenAI, LangChain, Pinecone, Streamlit
Generative KI, GPT, Langchain, Large Language Models, Python
10/2022 – 9/2023
Tätigkeitsbeschreibung
- Import und Vorbereitung der Job-Statistiken
- Korrelationsanalyse zur Identifizierung von Einflussfaktoren auf die Bewerbungsanzahl
- Untersuchung und Visualisierung des Einflusses verschiedener Parameter auf die Anzahl der Bewerbungen und Listing-Einblendungen
- Ermittlung von Klick-Kennzahlen und View-Kennzahlen sowie Analyse von Einflussfaktoren auf die Click-Through-Rate
- Ableitung von Empfehlungen zur Steigerung der Bewerbungsanzahl für Stellenausschreibungen
- Dokumentation und Präsentation der Ergebnisse
- Entwicklung eines Machine Learning Modells zur Prädiktion der Bewerbungsanzahl auf Basis der Parameter einer Jobausschreibung
- Deployment des Prädiktionsmodells als REST-API mit Docker
Verwendete Tools: Python, Scikit-learn, Keras, TensorFlow, Matplotlib, Seaborn, Plotly, Jupyter, Git, Docker, PowerPoint
Datenanalyse, Gradient Boosting, Keras, Neuronale Netze, Scikit-learn, Tensorflow, Docker, Python
8/2022 – 5/2024
Tätigkeitsbeschreibung
• Planung und Vorbereitung der Workshops zum Data Strategy & Analytics Assessment
• Analyse des Status Quo und der Anforderungen an eine Zielarchitektur
• Entwurf von mehreren möglichen Zielarchitekturen mit den jeweiligen Vor- und Nachteilen
• Umsetzung der ausgewählten Architektur in Azure
• Entwicklung eines Datenmodells und Definierung einer ETL-Strecke zur Verschiebung der Daten mit Azure Data Factory in eine Azure Cosmos DB
• Transformation der Daten mit Dataflows in Azure Data Factory
• Entwicklung von Azure Functions zur automatisierten Fehlererkennung und Lösung basierend auf Log-Dateien
• Erstellung eines Power BI Reports zur Visualisierung und Analyse der Log-Dateien
• Nutzung von Databricks und Spark zur Auswertung der Daten
• Dokumentation der Architektur in Terraform und Confluence
Verwendete Tools: Azure Cosmos DB, Azure Data Factory, Azure Blob Storage, Azure Functions, Azure DevOps, Azure Data Studio, Terraform, Databricks, PySpark, MongoDB Compass, Python, PyMongo, Power BI, Jira Atlassian, Confluence
Databricks, Power Bi, Mongodb, Jira, Python, Cloud (allg.), Microsoft Azure
5/2022 – 11/2022
Tätigkeitsbeschreibung
- Import und Vorbereitung der verschiedenen Datenquellen
- Ähnlichkeitsanalyse basierend auf der Produktbezeichnung mit NLP
- Erstellung einer Ähnlichkeitstabelle zum Vergleich der Sachnummern mit mehreren Parametern
- Entwicklung eines neuronalen Netzes zur Prädiktion eines Ähnlichkeitswertes zwischen Sachnummern
- Implementierung eines Algorithmus zur Identifikation von Clustern mit ähnlichen Produkten
- Berechnung des Referenzpreises und Einsparungspotenzial für jedes Cluster
- Generierung und Export einer Datei mit den Ergebnissen des Cluster-Algorithmus
- Aufsetzung einer Schnittstelle zum Weiter- oder Neu-Trainieren des neuronalen Netzes mit Anwender-Feedback
- Deployment innerhalb einer AWS-Umgebung
Verwendete Tools: Python, Scikit-learn, Keras, Tensorflow, Jupyter, Git, AWS, SonarQube
Keras, Scikit-learn, Tensorflow, Python, Amazon Web Services (AWS)
4/2022 – 3/2023
Tätigkeitsbeschreibung
- Durchführung eines Data Assessment zum WMS Reporting
- Analyse des Status Quo und der Anforderungen an eine Zielarchitektur
- Entwurf von mehreren möglichen Zielarchitekturen mit den jeweiligen Vor- und Nachteilen
- Umsetzung der ausgewählten Architektur in Azure
- Aufsetzung eines ETL-Prozesses zur Verschiebung und Transformation der Daten von lokalen Oracle-Datenbanken in eine Azure SQL Datenbank mit Azure Data Factory
Verwendete Tools: Azure SQL DB, Azure Data Factory, Azure Data Studio, PowerPoint, Power BI, Dataverse, SharePoint
Power Bi, Cloud (allg.), Microsoft Azure
3/2022 – 10/2022
Tätigkeitsbeschreibung
- Identifizierung der Schicht- und Standzeiten von LKWs anhand von Tracking-Daten
- Untersuchung der Points of Interest in der Umgebung von Standorten der LKWs mithilfe der Here Maps API
- Ermittlung der optimalen Anzahl und Orte für Ladestationen von Elektroautos
- Implementierung von Algorithmen zur Bestimmung der elektrifizierbaren LKWs auf Basis der fahrspezifischen Daten
- Entwicklung eines Dashboards mit Plotly Dash zur Analyse des Fahrverhaltens und des Elektrifizierungspotenzials
- Dokumentation der Algorithmen in Confluence
Verwendete Tools: Python, Here Maps API, Plotly, Dash, PyInstaller, Jupyter, Visual Studio Code, Jira Atlassian, Confluence, Git
Data Science, Git, Python
7/2021 – 2/2022
Tätigkeitsbeschreibung
Entwicklung eines Systems zur Personalvermittlung, welches mithilfe von künstlicher Intelligenz und psychologischen Modellen möglichst passende Vakanzen für einen Kandidaten findet
- Datenbereinigung und Import von Stellenausschreibungen
- Programmierung eines intelligenten Algorithmus zur Auswahl der optimalen Kontaktdaten für eine offene Stelle
- Implementierung von Webcrawlern für Kandidatenprofile auf LinkedIn und Xing
- Entwicklung von Machine Learning Modellen zur automatischen Identifizierung passender Vakanzen für einen Kandidaten
- Erstellung einer R Shiny Wep App zur statistischen Auswertung psychologischer Daten
- Mustererkennung und Implementierung psychologischer Modelle
- Erstellung eines Python-Dashboards für die Marktanalyse mit Geo-Heatmaps, Zeitreihenanalyse und ML-Prognosen
- Analyse gesendeter E-Mails und Webhooks zur Optimierung der Antwortrate
- Entwicklung von KI-Modellen zur Vorhersage der Request- und Blacklist-Wahrscheinlichkeiten vor der Präsentation eines Kandidaten bei einem Unternehmen
- Entwicklung von CI/CD Pipelines mit Git und Slack Integration
Verwendete Tools: Python, Scikit-learn, Plotly, Dash, Jupyter, Heroku, R Shiny, R Studio, AWS S3, MongoDB, Mongo Cloud, Jira Atlassian, Git, Linux
Amazon Web Services (AWS), Jira, Mongodb, Python, R (Programmiersprache), Scikit-learn
3/2020 – 6/2021
Tätigkeitsbeschreibung
- Implementierung von Feature-Selection-Algorithmen zur Identifizierung von Preistreibern
- Analyse des Quote-to-Cash-Prozesses zur Optimierung des Supply Chain Managements
- Anwendung von NLP-Techniken zur E-Mail-Analyse
- Entwicklung eines Machine Learning Modells zur automatischen Extraktion von Signaturen aus E-Mails
- Analyse und Auswertung von Finanzbuchhaltungsdaten
Verwendete Tools: Python, Scikit-learn, Statsmodels, Seaborn, Jupyter, SQL, SSMS, Hadoop, Microsoft Power BI, Microsoft Teams, SharePoint, Git
Apache Hadoop, Git, Power Bi, Python, Scikit-learn, SQL
9/2016 – 8/2019
Tätigkeitsbeschreibung
Entwicklung einer Webplattform zur Fabrikplanung
- Implementierung eines Java-Backends mit Spring und Hibernate
- Verwaltung der SQL-Datenbank
- Entwicklung und Optimierung von Datenmodellen
- Auswertung, Erstellung und Datenmigration in NoSQL-Datenbanken zur Leistungssteigerung (MongoDB, Neo4j)
- Einrichtung automatisierter JUnit-Tests
- Implementierung und Anbindung eines Python-Backends für Deep Learning mit Tensorflow
Entwicklung einer Desktop-Anwendung zur Finanz- & Personalverwaltung
- Implementierung vom Backend und Frontend für eine Desktop-Anwendung mit C# und WPF
- Verwaltung der SQL-Datenbank
- Datenmigration aus einer SAP-Datenbank
Verwendete Tools: C#, WPF, Java, Spring, Hibernate, Postman, SQL, MySQL Workbench, MongoDB, Neo4j, Python, Tensorflow, Git, JUnit, IntelliJ IDEA, Visual Studio Code, YouTrack
C#, Git, Java (allg.), Mongodb, Mysql, Python, Softwareentwicklung (allg.), SQL, Tensorflow
Zertifikate
Microsoft
Microsoft
Databricks
Amazon Web Services
Microsoft
Microsoft
FH Aachen
Ausbildung
FH Aachen - University of Applied Sciences
Aachen
FH Aachen - University of Applied Sciences
Aachen
Cybernetics Lab IMA & IfU - FH Aachen
Über mich
- Datenanalyse, KI-Entwicklung, Machine Learning, Deep Learning
- Entwicklung von Cloud-Architekturen & Datenpipelines
- Datenvisualisierung, Erstellung von Dashboards
- Webentwicklung, API-Erstellung
- Statistische Analysemethoden
- MLOps, DevOps
TOOLS
- Programmiersprachen: Python, R, Java, C#, SQL, PySpark
- Bibliotheken: TensorFlow, Scikit-learn, MLflow, OpenAI, LangChain, Airflow, FastAPI
- Datenbanken: MySQL, Oracle, MongoDB, Pinecone
- Cloud-Plattformen: Azure, AWS, Databricks, MS Fabric
- Datenvisualisierung: Power BI, Streamlit, Seaborn, Plotly, Dash, R Shiny
- Sonstige Tools: Git, Jira, Docker, Heroku, Terraform, Azure DevOps
Persönliche Daten
- Deutsch (Muttersprache)
- Englisch (Fließend)
- Spanisch (Gut)
- Europäische Union
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden