Mozo / A De Almacen Para Aeropuerto De Madrid T4 (Fengo)
ENRIQUE TOMÁS
Comunidad Valenciana
EUR 40.000 - 80.000
Descripción del empleo
Nuestro Propósito - Reinventar la forma de hacer Consultoría. NWorld somos un ecosistema de compañías especializada en Negocio, Tecnología y Operaciones, que busca cubrir toda la cadena de valor del negocio de nuestros Clientes. Las Personas que componemos NWorld compartimos una misma meta: Hacer nuestros los Retos a los que se enfrentan nuestros Clientes. Los pilares en los que se apoya nuestro Compromiso son: Búsqueda continua de Especialización, Absorber la Tecnología dentro de nuestro ADN, La Innovación en lo que hacemos, y Las Personas en el centro.
¿Qué buscamos? Buscamos un Data Engineer altamente cualificado y motivado para unirse a nuestro equipo. El candidato ideal será responsable de diseñar y liderar la implementación de soluciones de Big Data utilizando Scala / Python y Apache Spark, asegurando el rendimiento, la escalabilidad y la integridad de los datos.
Responsabilidades
Diseñar y desarrollar arquitecturas de procesamiento de datos en tiempo real y batch utilizando Scala / Python y Apache Spark.
Colaborar con equipos multifuncionales para definir los requisitos de datos y traducirlos en soluciones técnicas robustas.
Optimizar el rendimiento de los sistemas de procesamiento de datos.
Garantizar la calidad y la integridad de los datos mediante la implementación de buenas prácticas y estándares de la industria.
Mentorizar y liderar a otros desarrolladores proporcionando orientación técnica.
Mantenerse actualizado con las últimas tecnologías y tendencias en el ámbito de Big Data.
Requisitos Mínimos
Título universitario en Ciencias de la Computación, Ingeniería Informática o un campo relacionado.
Experiencia demostrable de al menos 3 años en desarrollo de ETLs con Scala / Spark o Pyspark.
Sólida experiencia en el uso de Apache Spark para el procesamiento de datos a gran escala.
Sólida experiencia en el diseño y construcción de ETL / ELT en entornos en la nube (Databricks, Azure, AWS, GCP).
Experiencia en modelado de datos (relacional, dimensional, etc.).
Habilidades de resolución de problemas y capacidad para trabajar en un entorno de ritmo ágil.
Excelentes habilidades de comunicación y capacidad para trabajar en equipo.
Requisitos deseables
Experiencia previa en el diseño de soluciones en la nube (AWS, Azure, Google Cloud).
Familiaridad con metodologías Agile y herramientas de gestión de proyectos (JIRA, Confluence, etc.).
Experiencia trabajando con Kafka.
Certificaciones relevantes en Big Data o tecnologías en la nube.
Qué te encontrarás?
Planes de carrera personalizados: Aquí nunca serás un número.
Crecimiento sin Plazos: Planes de carrera retadores y transparentes.
Formamos perfiles mixtos: Especialistas en negocio con conocimiento técnicos preparados para el entorno digital.
Plan de Formación: Especialización, aprendizaje continuo, mentoring.
Entorno Flexible: Creemos en la autonomía y responsabilidad personal. Flexibilidad horaria, Retribución flexible.
Obtenga la revisión gratuita y confidencial de su currículum.