Empleo de Arquitecto de Datos - Monterrey en Monterrey,NL-108395-MX

Publicado hace más de 30 días.

Arquitecto de Datos - Monterrey en XIDERAL

$ 60,000 a 70,000 MXN (Neto)

Nuevo León

Empleado de tiempo completo

Inglés : Nivel Avanzado

2390 Arquitecto de Datos - MTY


Estamos buscando un Arquitecto de Datos en Monterrey que desarrolle y optimice sistemas de datos. Como Arquitecto de Datos, serás responsable de desarrollar e implementar soluciones de bases de datos para nuestra empresa.


Responsabilidades:
•    Diseñar y gestionar la arquitectura de datos, incluyendo bases de datos relacionales y no relacionales.
•    Desarrollar e implementar capas semánticas que faciliten el acceso y análisis de los datos por parte de los usuarios de negocio.
•    Liderar la creación de una semántica universal dentro de la organización, estandarizando y alineando el significado de los datos para todas las áreas.
•    Optimizar y estructurar modelos de datos complejos para cumplir con los objetivos de la organización, asegurando la integridad y consistencia de los datos.
•    Implementar soluciones de almacenamiento y procesamiento de datos en Snowflake, garantizando la escalabilidad y seguridad.
•    Colaborar con los equipos de análisis de datos para definir las mejores prácticas en la manipulación y gestión de datos.
•    Desarrollar y mantener procesos ETL (Extracción, Transformación y Carga) eficientes para la integración de fuentes de datos.
•    Asegurar que los sistemas de datos cumplan con los requisitos de rendimiento, seguridad y disponibilidad.
•    Participar en la definición de políticas y estándares de gobernanza de datos.


Requisitos Técnicos y Conocimientos:

•    Inglés Intermedio - Avanzado
•    Dominio de Snowflake: Experiencia demostrable en el uso y administración de Snowflake como plataforma de datos.

•    Capas Semánticas: Capacidad para diseñar y estructurar capas semánticas que faciliten la interpretación de los datos a usuarios no técnicos.
•    SQL Avanzado: Experiencia avanzada en la escritura y optimización de consultas SQL para grandes volúmenes de datos y estructuras complejas.
•    Modelado de Datos: Alta capacidad para estructurar y analizar modelos de datos complejos, garantizando la escalabilidad y eficiencia en su uso.
•    Semántica Universal: Experiencia en la creación de una semántica universal para estandarizar y unificar la interpretación de los datos en toda la organización.
•    Conocimientos sólidos en aritmética y matemáticas: Capacidad para aplicar conceptos matemáticos avanzados en el análisis y modelado de datos.
•    Experiencia en arquitecturas de datos distribuidas: Conocimientos de arquitecturas modernas de datos, incluyendo el uso de data lakes, almacenes de datos en la nube y procesamiento de datos en tiempo real.
•    Gobernanza de Datos: Conocimiento de mejores prácticas en gobernanza de datos, asegurando cumplimiento con normativas y estándares de seguridad de la información.
Habilidades y Competencias Adicionales:
•    Resolución de Problemas Complejos: Capacidad para identificar y resolver problemas relacionados con la gestión y el análisis de grandes volúmenes de datos.
•    Colaboración y Comunicación Efectiva: Habilidad para traducir necesidades de negocio en soluciones técnicas, y comunicar conceptos técnicos a equipos no especializados.
•    Pensamiento Crítico y Analítico: Capacidad para analizar, interpretar y estructurar grandes volúmenes de información de manera eficiente.
•    Innovación y Mejora Continua: Actitud proactiva para proponer y adoptar nuevas tecnologías y metodologías en la arquitectura de datos.
•    Capacidad de Liderazgo: Experiencia en la gestión de equipos técnicos, supervisando proyectos relacionados con la arquitectura de datos.
Requisitos de Experiencia:
•    Más de 6 años de experiencia trabajando como Arquitecto de Datos, preferiblemente en entornos empresariales complejos.
•    Experiencia trabajando con plataformas de Cloud Data adicionales a Snowflake como AWS, Azure o Google Cloud.
•    Conocimiento práctico en el manejo de herramientas de ETL, modelado de datos y gestión de grandes volúmenes de datos.
Educación:
•    Licenciatura o Maestría en Ciencias de la Computación, Ingeniería Informática, Matemáticas, Estadística, o un campo relacionado.