Développeur Big data (H/F) - Edigital

92000 Nanterre - 16/01/2018

  • Selon profil

  • Freelance

  • BAC +4/5

  • 2 - 5 ans


Nous développons une expertise concernant l’Entreprise Agile. Notre savoir-faire vous apporte les meilleures pratiques dans les domaines de :
- L’innovation (Design Thinking, Crowd Sourcing, Startups).
- Projets agiles (Feature Teams, Centres de Services Agiles, Teams agiles).
- DevOps (Continuous integration et implication de la production dans les projets agiles).
- Leadership agile (évolution du leadership de l’humain d’après les rôles agiles).
- ERP agiles (Déploiement de progiciels en agile).

En bref : l'entreprise Edigital recrute un(e) Développeur Big data (H/F) en Freelance à Nanterre (code postal 92000). Le candidat idéal ? Expérience de 2 - 5 ans et des compétences en # hadoop yarn # spark streaming # fuzzy logic # Random Forest # PYTHON # ANgular # Scala #big data

Concevoir une solution informatique conforme à l'enjeu métier et garantir l'adéquation des solutions mises en œuvre avec les besoins exprimés.

Vos principales activités sont de :
- Identifier les données présentes dans les logs applicatifs qui sont potentiellement intéressantes dans le cadre de la détection de fraudes externes.
- Concevoir des algorithmes de détection de fraudes basés sur le Machine Learning et accompagner les développeurs dans la mise en place de ces algorithmes (expression de besoin, suivi, tests de validation, tests de régression, etc.).
- Développer en Java/Scala de nouvelles briques en s'appuyant sur celles déjà conçues en phase d'exploration par l'équipe actuelle pour répondre à de nouveaux besoins (nouveaux canaux / marchés)
- Tester, homologuer et valider ces algorithmes codés en Java/Scala.
- Intégrer ces briques dans toute la chaine du Big Data (passage en production/industrialisation).
- Documenter l'ensemble des algorithmes et des variables implémentée.

Compétences requises :
- Data Mining (Fouille de données) et Analyse de logs de connexions web comme identifier les données présentes dans les logs applicatifs (logs pouvant être communiquées sous plusieurs formats), ainsi que les relations présentes entre ces données
- Architecture Hadoop Yarn
- Développement en langage R, Python, Scala et en Spark Streaming
- Datascience et Machine Learning : Algorithmes de prévision et de détection d'anomalies supervisés (Random Forest, SVM, etc.) et non supervisés (Fuzzy logic, etc.).
- Connaissance du métier bancaire souhaité
- Connaissance du domaine de la cyber sécurité souhaité

- De formation BAC +5 en informatique / école d'ingénieur avec une maîtrise et connaissance des fondamentaux liés aux méthodologies de conception et de réalisation en matière de livrables informatiques.
- Vous avez un niveau d'anglais intermédiaire.

# hadoop yarn # spark streaming # fuzzy logic # Random Forest # PYTHON # ANgular # Scala #big data

Cette offre est expirée. Voir d'autres offres