Développeur Java | Data analyst | ELK | MOA/AMOA Big Data
- Verfügbarkeit einsehen
- 0 Referenzen
- 80‐130€/Stunde
- 95100 Argenteuil
- Weltweit
- fr | en | de
- 29.09.2022
Kurzvorstellung
Qualifikationen
Projekt‐ & Berufserfahrung
12/2021 – offen
Tätigkeitsbeschreibung
Dans le cadre de l’activité Big DATA & IA, le besoin est de prendre en charge plusieurs typologies d’activités
Activité :
Études projet/évolutions en comité des architectes-data, des Chefs de projets, pour identifier et qualifier les besoins et usages métiers, et des solutions s’appuyant sur les plates-formes data Big DATA, Elasticsearch, Taratata
Construction des solutions Big DATA en collaboration avec le Project leader.
Rédaction des cahiers des charges et documents technique
Modélisation et gouvernance des données en respect de la RGPD et CNIL
Respecter les règles de sécurité et les fondamentaux Projets
Entretenir la documentation des applications
Apache Hadoop, Big Data, Elasticsearch, Graphql, Jira, Projektleitung / Teamleitung (IT), SQL, Teradata Sql
12/2020 – 12/2020
Tätigkeitsbeschreibung
Au sein du projet PSA Retail, un besoin d’audit du socle Elasticsearch était nécessaire pour l’améliorer des performances de l’application.
Activité :
Recueil et Analyse du logiciel ainsi que du périmètre projet.
Mise en place du socle technique nécessaire à l’audit
Évaluation des données, typologie, indexation (frozen, hot), shards
Réalisation des différents scénarios de test d’optimisation et d’accès rapide à la donnée via les modules de recherches internes.
Mise en place des bonnes pratiques en termes de typologie et structure de données, des index, des shards, snapshots, cycle de vie des index afin d’améliorer les performances d’elasticsearch.
Rédaction d’un document d’audit et de préconisations en vue d’une optimisation et évolution de l’architecture
Docker, Elasticsearch, Microsoft Publisher, Windows Powershell, UNIX
12/2019 – 12/2021
Tätigkeitsbeschreibung
Au sein du pôle Connaissance Clients de SISPEO (ServiceS pour les Paiements et les Échanges d’Opération) anciennement SCOPE50 dont la mission première est la mise en place des domaines applicatifs de la DSB (Direction de Service Bancaire) et le développement des SI Décisionnels ainsi que des Systèmes de Lutte contre le Blanchiment, j’ai pu intervenir dès le début au sein du projet ASTRA. Le projet ASTRA construit ce socle afin de permettre le suivi opérationnel de l’ensemble des fichiers bancaires transitant au sein de la banque.
Activité :
Recueil, Analyse et conception des besoins métiers. - Mise en place d’un socle solide car traitement journalier de plus de 5 millions de données voir 20 millions.
Développement d’un batch d’analyse et traitement des échanges SCT, SDD via des transactions SEPA, MultiSEPA, BULK pour des opérations de remises d’ordres de paiement, des échanges interbancaires, de rejet, de demande de retour de fonds, correction d’information bancaire (PAIN, PACS, CAMT, ACMT), formats MINOS (retrait DAB, CB, débit, rejet, annulation), formats plats, BDF4000. Utilisation du plugin INGEST adapté.
Développement d’un module de calcul, de suivi des imputations comptables et d’annulation comptable (PACS.007) ainsi que des CRE (Compte Rendu d’Évènement) sur le socle Elasticsearch.
Définition et implémentation d’un identifiant unique par transaction afin d’assurer le rapprochement et un suivi de BeB par transaction et fichier dans l’ensemble SI Banque de France.
Mise en place et implémentation d’un système de contrôle de fichier (Alerte) en entrée et sortie d’une application par écart temps de traitement en prenant en compte les vacations (délais de traitement applicatif) et par écart temps de transfert (dysfonctionnement lié au transfert du fichier bancaire).
Définition et mise en place dans le cadre de la BAM d’un processus propre au traitement et rétention des transactions Non FR soumis à EMBARGO.
Respect de la RGPD via des processus d’anonymisation des données sensibles et mise en place d’une politique de rétention dans Elasticsearch.
Exécution des tests fonctionnels, tests de non-régression et tests unitaires.
Enrichissement des modèles de données et du dictionnaire de données.
Administration du cluster Elasticsearch, Dashboard Kibana et pipelines Logstash d'ingestion.
Mise en place de la structuration, typlogie, indexation des données et module de recherche
Rédaction de la documentation générale et techniques.
Confluence, Elasticsearch, Java (allg.), Json, Jenkins, Jira, Linux (Kernel), SQL, UML
12/2018 – 12/2019
Tätigkeitsbeschreibung
Suivi de carrière de plusieurs collaborateurs du groupe Capgemini
Encadrement et coaching des dits collaborateurs
Participation aux baromètres d’évaluation des collaborateurs pour promotion, formation et rotation de projet
Management (allg.), Skype for Business (Anwenderkenntnisse), Team Building
12/2018 – 12/2019
Tätigkeitsbeschreibung
En étroite collaboration avec la division du Marketing, il est question de traiter la consommation énergétique (Électricité, Gaz) et la souscription/désabonnement des clients EDF via la mise en place d’algorithmes tout en appliquant la réglementation européenne GDPR.
Activité :
Recueil, Analyse et conception des besoins métiers tout en tenant compte des futurs cas d’usage.
Rédaction et validation des spécifications techniques répondant aux différents besoins.
Pilotage, chiffrage et suivi d’activité à travers différents comités.
Participation à la priorisation du besoin par valeur (Minimum Viable Product)
Elaboration des schémas d’architectures et cartographie data au sein du SI
Gestion des données et cycle de vie de la donnée - contrat d’interface
Cadrage et mis en place des règles de gestions des parcours clients et données via le datalake et elasticsearch
Mise en place des stratégies de recette (plans de tests, scénarios, JDD, exécution)
Formalisation des différents scénarii pour automatisation des tests avec Cucumber.
Amélioration de la documentation technique et mise en place de la retro documentation.
Échange constant et description technico-fonctionnelle aux équipes de développement.
Support aux équipes de développement
Agile Methodologie, Apache Spark, Big Data, Confluence, Elasticsearch, Jira, Apache Kafka, Motivation Projektteams, Projektleitung / Teamleitung (IT), SQL, UML
12/2017 – 12/2018
Tätigkeitsbeschreibung
Dans une équipe full agile, je travaillais en qualité d’appui métier sur le projet @CCOST qui s’axe sur la mise en place des indicateurs, le traitement de données et la supervision de l’ensemble des applications du SI commerce sous la responsabilité du domaine marché des clients particuliers EDF. Le contexte du projet est organisé au tour de cinq activités :
Concevoir la supervision des processus du SI MCP (définition des indicateurs)
Implémenter les indicateurs dans les outils de supervision existants
Collecter, traiter et centraliser les données dans un lac de données
Piloter le projet et restituer les tableaux de bord des processus
Activité :
Recueil et analyse des besoins
Conception, Prototypage et indexation des données avec typologie efficiente
Implémentation et centralisation des indicateurs de supervision (sous l’ETL ELK)
Élaboration et réalisation des tests unitaires et des recettes fonctionnelles
Maintenance corrective et évolutive du lac de données et des indicateurs.
Industrialisation et suivi de la qualité de production de la stack ELK
Développement des pipelines d’ingestion Logstash multisourcing
Administration du socle Elasticsearch et PCA
Confluence, Elasticsearch, Json, Apache Kafka, Motivation Projektteams, Postgresql, Ruby on Rails, Scrum, SQL
12/2016 – 12/2017
Tätigkeitsbeschreibung
Lot 4 du projet QUADOR (Qualité des données de références), ORGE a pour but de cadrer la démarche d’analyse d’exhaustivité du respect des référentiels de la Direction du Parc Nucléaire et Thermique (DPNT) EDF.
Activité :
Rédaction des documents techniques de l’ensemble des composants de l’application et transfert de compétences à la TMA.
Développement en Java des services REST backoffice pour CRUD via le socle elasticsearch et la base postgresql
Développement d’un batch Spark de traitement des données Hive (EAM, ECM) de l’entrepôt Hadoop vers Elasticsearch
Montée de version Elasticsearch 2.3.3 vers la 5.4.3 avec mis à jour de l’application Web java, batch Spark ainsi que des différents modules.
Utilisation de Kibana et Sense pour la visualisation des données Elasticsearch, Hue comme interface de virtualisation des workflow Oozie de l'écosystème Hadoop.
Développement des évolutions et corrections d'anomalies
Développement d’un module basé sur Sqoop pour l'import et l'export de données de base relationnel (PostgreSQL) vers Hadoop
Réalisation des tests unitaires avec Junit, Mockito, ScalaTest.
Compilation et correction de la qualité du code source avec Jenkins.
Kanban (Softwareentwicklung), Apache Maven, Big Data, Elasticsearch, Git, Java (allg.), Postgresql, Scala, Spring Framework
Ausbildung
Institut d'ingénierie informatique de Limoges (Fra
Über mich
En plus de mon savoir-être et sens du service, mes expériences passées m’ont permis d'acquérir les compétences nécessaires à la bonne réalisation de ces objectifs de mission. J’aimerais apporter mon enthousiasme et ma créativité à proposer et mettre en œuvre des solutions adaptées à des environnements innovants et complexes. Je serais un atout pour l'équipe. Aussi j'ai une excellente connaissance Java, de la stack ELK et des technologies Big Data.
Persönliche Daten
- Französisch (Muttersprache)
- Englisch (Fließend)
- Deutsch (Grundkenntnisse)
Kontaktdaten
Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.
Jetzt Mitglied werden