Empleo de Arquitecto Big Data SQL Middle - Remoto en Remoto-108048-REMOTO

Publicado hace más de 30 días.

Arquitecto Big Data SQL Middle - Remoto en AOS

$ 6.000.000 a 6.999.999 COP (Neto)

Remoto: LATAM

Empleado de tiempo completo

Inglés : Nivel Básico

se requiere Arquitecto Big Data  con conocimientos en:

1. Fundamentos de Big Data

-Conceptos de Big Data: Comprender las 3 V (volumen, velocidad, variedad) y cómo afectan la arquitectura de datos.

-Ecosistema de Big Data: Familiaridad con el ecosistema de Big Data, incluyendo tecnologías como Hadoop, Spark y NoSQL.

2. Herramientas y Tecnologías

-Frameworks de Procesamiento: Experiencia con herramientas como Apache Hadoop, Apache Spark, Apache Flink, y Apache Storm.

-Bases de Datos NoSQL: Conocimientos en bases de datos NoSQL como MongoDB, Cassandra, HBase y Redis.

3. Almacenamiento y Gestión de Datos

-Lakes y Warehouses: Comprender la diferencia entre data lakes y data warehouses, y cuándo utilizar cada uno.

-ETL y ELT: Habilidades en procesos de extracción, transformación y carga (ETL) y su variación (ELT) utilizando herramientas como Apache NiFi, Talend o Informatica.

4. Lenguajes de Programación y Scripting

-Lenguajes Comunes: Dominio de lenguajes como Python, Java o Scala para el desarrollo y procesamiento de datos.

-SQL: Habilidad para escribir consultas SQL y trabajar con bases de datos relacionales.

5. Arquitectura de Sistemas

-Diseño de Arquitectura: Capacidad para diseñar arquitecturas escalables y eficientes para el procesamiento de grandes volúmenes de datos.

-Microservicios: Familiaridad con arquitecturas basadas en microservicios para la integración de diferentes componentes de datos.

6. Análisis y Visualización de Datos

-Herramientas de Análisis: Conocimiento en herramientas de análisis y visualización como Apache Superset, Tableau, Power BI o D3.js.

-Machine Learning: Comprender conceptos básicos de machine learning y cómo aplicarlos en un entorno de Big Data.

7. Seguridad y Cumplimiento

-Seguridad de Datos: Conocer prácticas de seguridad para proteger datos sensibles y cumplir con regulaciones como GDPR o HIPAA.

-Gestión de Accesos: Implementar políticas de gestión de identidades y accesos en soluciones de Big Data.

8. Monitoreo y Mantenimiento

-Herramientas de Monitoreo: Utilizar herramientas para el monitoreo y la gestión del rendimiento de las soluciones de Big Data.

-Optimización: Capacidad para optimizar consultas y procesos para mejorar el rendimiento.

9. Colaboración y Comunicación

-Trabajo en Equipo: Colaborar con científicos de datos, ingenieros de datos y otros stakeholders para desarrollar soluciones.

-Presentación de Resultados: Habilidad para comunicar hallazgos y recomendaciones a audiencias técnicas y no técnicas.