DESCRIPTION :
· Concevoir, développer et maintenir des pipelines de données robustes pour garantir l'accès fiable et performant aux données.
· Intégrer, transformer et charger des données issues de différentes sources (ETL/ELT).
· Construire et optimiser des architectures de données (data warehouses, data lakes) pour répondre aux besoins analytiques.
· Collaborer avec les data scientists et data analysts pour leur fournir les datasets nécessaires à leurs analyses et modèles.
· Mettre en oeuvre des solutions Big Data et gérer des volumes massifs de données.
· Assurer la qualité, la sécurité et la gouvernance des données.
· Automatiser les processus de collecte, transformation et gestion des données.
· Participer à la veille technologique et à l'amélioration continue des pratiques et outils utilisés.
Environnement technique
· Langages de programmation : Python, Java, Scala, SQL.
· Big Data : Hadoop, Spark, Kafka, Hive, Flink.
· Cloud : AWS (Glue, Redshift, S3, EMR), Azure (Data Factory, Synapse, Blob Storage), GCP (BigQuery, DataFlow).
· Bases de données : SQL Server, PostgreSQL, MongoDB, Cassandra, Snowflake.
· ETL/ELT : Talend, Informatica, Apache NiFi, dbt, Airflow.
· Outils DEVOPS : Docker, Kubernetes, Terraform, Jenkins, Git.
· Visualisation et BI : Power BI, Tableau.
Le plus :
· Connaissances approfondies en gestion de bases de données relationnelles et NoSQL.
· Expertise en optimisation des performances des systèmes de données.
· Connaissances des frameworks de traitement distribué (Spark, Flink).
· Certifications cloud (AWS, Azure, GCP) appréciées.
Rassurez-vous, pas besoin de tout connaitre ! Un accompagnement et des formations sont là pour vous permettre de vous amuser avec toutes ces technologies., · Évoluer régulièrement sur de nouveaux projets, découvrir de nouveaux métiers et secteurs, travailler à l'international, accéder rapidement à des postes à responsabilité...
· Être acteur du développement de la société : identification d'opportunités, organisation d'événements, recrutement de nouveaux collaborateurs..., Déroulement du processus de recrutement
Code d'emploi : Ingénieur DevOps (h/f)
Domaine professionnel actuel : Technologies de l'Information et de la Communication (autre)
Niveau de formation : Bac+5
Temps partiel / Temps plein : Plein temps
Type de contrat : Contrat à durée indéterminée (CDI)
Compétences : Java (Langage de Programmation), Airflow, Amazon Web Services, Amazon S3, Microsoft Azure, Big Data, BigQuery, Cloud Computing, Bases de Données, Architecture de Données, Gouvernance des Données, ETL, Système de Données, DevOps, Apache Hadoop, Apache Hive, Python (Langage de Programmation), PostgreSQL, Microsoft Sql Server, MongoDB, NoSQL, Optimisation des Performances, Power BI, Scala (Langage de Programmation), Structured Query Language (SQL), Tableau (Software), Talend, Google Cloud, Snowflake, Apache Spark, Electronic Medical Records, Git, Data Lakes, Kubernetes, Technologies Informatiques, Apache Flink, Cassandra, Apache Kafka, Apache Nifi, Gestion des Données, Terraform, Docker, Jenkins, Amazon Redshift, Anglais, Sens de la Communication, Compétences Interpersonnelles, Honnêteté, Esprit d'Équipe, Systèmes Automatisés, Amélioration des Processus d'Affaires, Veille Concurrentielle, Thérapie Comportementale Dialectique, Organisation d'Événements, Recrutement, Visualisation, Gestion de la Qualité, Compétences de Modélisation
Téléphone :
0472317070
Type d'annonceur : Intermédiaire