Magneto para:
¿Eres empresa? Descubre nuestras soluciones y agenda una cita haciendoclic aquí

Blog

Logo Magneto

Cargando resultados

En este momento estamos cargando los resultados disponibles

https://static.magneto365.com/lib/assets/2.87.7/9321e901f2689afe.svg icon item

/ empleos

/ INGENIERO DE DATOS (Certificado en GCP / BigQuery / Dataflow) (ID49234)

Trabajo en KERALTY S.A.S
Fecha de publicación 2026-04-23

INGENIERO DE DATOS (Certificado en GCP / BigQuery / Dataflow) (ID49234)

KERALTY S.A.S | Término indefinido, 1 cupos
iconReportar

    Requisitos para aplicar a la vacante:

  • People-iconApto para personas con discapacidad
  • Briefcase-icon5 años de experiencia, Profesional hasta Especialización/ Maestría
  • DollarCircle-iconSalario a convenir
  • Location-iconBogotá, D.C.

Será el responsable de diseñar, crear y mantener soluciones de ingesta, transformación, catalogación, consolidación, perfilamiento, limpieza y almacenamiento de datos con base en mejores prácticas con el fin de permitir el análisis y la democratización de la información según las necesidades del grupo Keralty y sus empresas.

Formación complementaria.

-Ingeniero de Sistemas / Ciencias Computacionales  /Ingenieria Electronica / Ingeniería Industrial

-Posgrado: Ingenieria de Datos / Big Data / Business Intelligence / Inteligencia Artificial

Maestria deseable

Conocimientos Técnicos.

  • Conocimiento avanzado de ETL / ELT
  • Conocimiento avanzado en la construcción y / o extracción de datos
  • Conocimiento de bases de datos relacionales y no relacionales
  • habilidades técnicas con data-pipelines y otras tecnologías de big data,
  • Conocimientos en Diseño
  • Modelamiento y arquitectura de datos
  • Conocimiento avanzado de alguno de los lenguajes Python, Java o C++
  • Certification en Big data o en Procesamiento de datos con herramientas en nube (GCP, AWS, Azure) o AWS Solution Architect - Associate
  •  Conocimientos sólidos en Google Cloud Platform (GCP)
  • ÁREA : Data Warehouse    - HERRAMIENTA: BigQuery (SQL Avanzado + ML)
  • ÁREA : ETL/ELT                 - HERRAMIENTA: Dataflow, dbt (Data Build Tool) 
  • ÁREA : Orquestación         - HERRAMIENTA:  Cloud Composer - Cloud Data fusion
  • ÁREA :  Gobernanza          - HERRAMIENTA:  Dataplex / Cloud IAM 
  • ÁREA :  Soft Skill               - HERRAMIENTA:  Gobernanza y ética, visión de negocio y DataOps 

Experiencia Laboral Específica.

 -5 Años -Experiencia en el diseño detallado y construcción de repositorios de datos empresariales (EDW, Data Lakes) con tecnologías en nube desde el inicio hasta el soporte de producción.  Experiencia en la creacion y operacion de data-pipelines estables y escalables que limpien, estructuren, integren y cataloguen conjuntos de datos grandes dispares en un formato legible y accesible por las aplicaciones analíticas y operativas que los requieran

Roles y Responsabilidades del cargo (A).

  1. Liderar conversaciones técnicas con las gerencias corporativas para comprender los requisitos de información e implementar soluciones de datos empresariales, trabajando con los gerentes de productos, los equipos de dba y los equipos de ingeniería para crear flujos de orquestación, transformación e informes de datos escalables que puedan capturar y preparar una gran cantidad de transacciones para los informes de los clientes, desarrollar un marco de trabajo que garantice la entrega de datos de alta calidad a las partes interesadas (data analisis, reporting, bi).
  2. Crear y operar data-pipelines estables y escalables que limpien, estructuren e integren conjuntos de datos grandes dispares en un formato legible y accesible para informes de cara al usuario final y análisis ad-hoc, trabajando con el equipo de ciencia de datos y el arquitecto de bi para desarrollar la infraestructura etl/elt e implementar las mejores prácticas para mantener data-pipelines, crear servicios de entrega de datos que apoyen las aplicaciones operativas y analíticas críticas para nuestras operaciones, clientes y socios.
  3. Liderar el diseño, modelamiento e implementación de repositorios de información para satisfacer las necesidades de datos e información de la compañía, desarrollando almacenes / repositorios de datos para satisfacer las solicitudes de datos ad-hoc de los clientes, así como preparar conjuntos de datos curados generales que pueden ser utilizados por múltiples departamentos para la integración de datos de autoservicio y casos de uso de bi / analítica, implementar plataformas de datos y soluciones de análisis empresarial para resolver las necesidades de análisis e informes basados ​​en datos a nivel corporativo.

subtitle-iconPalabras clave:

DATOS, SISTEMAS, INGENIERO

subtitle-iconVer empresa: KERALTY S.A.S