Publicado hace más de 30 días.
Arquitecto Big Data SQL Middle - Remoto en AOS
$ 6.000.000 a 6.999.999 COP (Neto)
Remoto: LATAM
Empleado de tiempo completo
Inglés : Nivel Básico
se requiere Arquitecto Big Data con conocimientos en:
1. Fundamentos de Big Data
-Conceptos de Big Data: Comprender las 3 V (volumen, velocidad, variedad) y cómo afectan la arquitectura de datos.
-Ecosistema de Big Data: Familiaridad con el ecosistema de Big Data, incluyendo tecnologías como Hadoop, Spark y NoSQL.
2. Herramientas y Tecnologías
-Frameworks de Procesamiento: Experiencia con herramientas como Apache Hadoop, Apache Spark, Apache Flink, y Apache Storm.
-Bases de Datos NoSQL: Conocimientos en bases de datos NoSQL como MongoDB, Cassandra, HBase y Redis.
3. Almacenamiento y Gestión de Datos
-Lakes y Warehouses: Comprender la diferencia entre data lakes y data warehouses, y cuándo utilizar cada uno.
-ETL y ELT: Habilidades en procesos de extracción, transformación y carga (ETL) y su variación (ELT) utilizando herramientas como Apache NiFi, Talend o Informatica.
4. Lenguajes de Programación y Scripting
-Lenguajes Comunes: Dominio de lenguajes como Python, Java o Scala para el desarrollo y procesamiento de datos.
-SQL: Habilidad para escribir consultas SQL y trabajar con bases de datos relacionales.
5. Arquitectura de Sistemas
-Diseño de Arquitectura: Capacidad para diseñar arquitecturas escalables y eficientes para el procesamiento de grandes volúmenes de datos.
-Microservicios: Familiaridad con arquitecturas basadas en microservicios para la integración de diferentes componentes de datos.
6. Análisis y Visualización de Datos
-Herramientas de Análisis: Conocimiento en herramientas de análisis y visualización como Apache Superset, Tableau, Power BI o D3.js.
-Machine Learning: Comprender conceptos básicos de machine learning y cómo aplicarlos en un entorno de Big Data.
7. Seguridad y Cumplimiento
-Seguridad de Datos: Conocer prácticas de seguridad para proteger datos sensibles y cumplir con regulaciones como GDPR o HIPAA.
-Gestión de Accesos: Implementar políticas de gestión de identidades y accesos en soluciones de Big Data.
8. Monitoreo y Mantenimiento
-Herramientas de Monitoreo: Utilizar herramientas para el monitoreo y la gestión del rendimiento de las soluciones de Big Data.
-Optimización: Capacidad para optimizar consultas y procesos para mejorar el rendimiento.
9. Colaboración y Comunicación
-Trabajo en Equipo: Colaborar con científicos de datos, ingenieros de datos y otros stakeholders para desarrollar soluciones.
-Presentación de Resultados: Habilidad para comunicar hallazgos y recomendaciones a audiencias técnicas y no técnicas.