Empleo de GCP Data Engineer en Remoto - Solo México-113015-MX

Publicado hoy.

GCP Data Engineer en Derevo

Sueldo oculto

Remoto: México

Empleado de tiempo completo

Inglés : Nivel Avanzado

¡¡Buscamos tu talento GCP Data Engineer !! 


¿Cuál será tu misión?

Serás pieza clave en el equipo de Data Integration , creando e implementando arquitecturas modernas de datos con alta calidad y escalabilidad.
Diseñarás, mantendrás y optimizarás sistemas de procesamiento paralelo, aplicando las mejores prácticas de almacenamiento y gestión en Data Warehouses, Data Lakes y Lakehouses , impulsando soluciones analíticas basadas en Big Data dentro del ecosistema Google Cloud Platform (GCP) .

Tu misión será convertir problemas complejos en soluciones alcanzables, alineadas a los objetivos del negocio, para ayudar a nuestros clientes a tomar decisiones basadas en datos.


  ¿Cómo lo harás?

Participarás activamente en proyectos de integración y transformación de datos, colaborando con equipos multidisciplinarios y aplicando las mejores prácticas en ingeniería de datos.

• Diseñarás y ejecutarás procesos ETL/ELT sobre BigQuery , Dataflow , Composer y otros servicios GCP.
• Desarrollarás pipelines en Python (PySpark) y Apache Beam , procesando datos estructurados y semiestructurados.
• Implementarás modelos de datos analíticos optimizados mediante particionamiento, clustering y vistas materializadas.
• Aplicarás estrategias de seguridad y gobernanza con IAM , Dataplex y Cloud DLP .
• Analizarás y validarás la calidad de los datos para asegurar su consistencia y precisión.
• Participarás en sesiones de ingeniería y planeación de sprints, estimando tareas y proponiendo mejoras técnicas.
• Colaborarás con equipos internos y clientes, aportando una visión consultiva que genere valor en cada etapa del proyecto.


¿Qué pedimos?

Para que te sientas como pez en el agua siendo un GCP Data Engineer en Derevo, esto es lo que consideraremos:

• Experiencia de al menos 5 años como Data Engineer trabajando con Google Cloud Platform (GCP) .
• Dominio de BigQuery , Dataflow , Composer , Pub/Sub , Datastream y Storage .
• Experiencia con Spark , PySpark y desarrollo de pipelines de datos.
• Conocimientos sólidos en SQL avanzado (T-SQL, Spark SQL).
• Experiencia en diseño y mantenimiento de Data Warehouses y Data Lakes .
• Conocimiento de estrategias de gobernanza y seguridad (Row-Level/Column-Level Security, IAM).
• Inglés intermedio/avanzado (B2 o superior).


  También valoramos que te identifiques con estas habilidades y forma de trabajar:

• Comunicación clara y cercana.
• Trabajo colaborativo en squads.
• Proactividad y orientación a la solución.
• Aprendizaje constante y curiosidad técnica.
• Responsabilidad y organización.
• Mentalidad consultiva enfocada en generar valor al cliente.


Tus beneficios con Derevo:

WELLNESS: Impulsaremos tu bienestar integral a través del equilibrio personal, profesional y económico. Nuestros beneficios de ley y adicionales te ayudarán a lograrlo.

LET’S RELEASE YOUR POWER: Tendrás la oportunidad de especializarte en diferentes áreas y tecnologías, logrando un desarrollo interdisciplinario.

WE CREATE NEW THINGS: Nos gusta pensar fuera de la caja. Tendrás la libertad y capacitación necesarias para crear soluciones innovadoras.

WE GROW TOGETHER: Participarás en proyectos tecnológicos punteros, multinacionales y con equipos extranjeros.


   ¿Dónde lo harás?

Somos un gran equipo trabajando en un esquema remoto , flexible y estructurado.
Te proporcionaremos el equipo necesario y herramientas de comunicación interna que faciliten nuestra operación y la de nuestros clientes.


Si cumples con la mayoría de los requisitos y te interesó el perfil, ¡no dudes en postularte! Nuestro equipo de Talent te contactará 

Become derevian & develop your superpower!