




Resumen del Puesto: Buscamos un Senior DevOps Engineer para diseñar, construir y operar capacidades DevOps que soporten la Plataforma de Datos, con énfasis en DataOps e Ingeniería de Software. Puntos Destacados: 1. Rol clave en la construcción y evolución de una plataforma de datos moderna 2. Foco en automatización y construcción de soluciones robustas 3. Trabajo colaborativo con alto estándar técnico e impacto **Descripción empresa:** Somos más de 88 mil personas que cada día trabajamos por el firme Propósito \- Simplificar y Disfrutar más la Vida. Estamos presentes en 9 países y compuestos por cinco grandes marcas posicionadas de diversas industrias: Falabella Retail, Sodimac, Banco Falabella, Tottus y Mallplaza. Cada una de éstas nos hace ser quienes somos, y es entre todos, como Un Solo Equipo, que buscamos diariamente reinventarnos y superar las experiencias de nuestros clientes. Un Equipo lleno de sueños que hace que las cosas pasen. nos atrevemos a emprender e innovar, a tomar riesgos y a generar oportunidades que nos permitan estar siempre a la vanguardia lo que nos lleva a reinventarnos para entregar la mejor experiencia de compra en cualquier punto de encuentro con nosotros. **Misión del cargo:** Aprovisionar los recursos o infraestructura requeridos para nuestras soluciones, asegurando la integración y despliegue continuo. **Funciones del cargo:** ¡Si tienes una mente inquieta, te apasiona la automatización y disfrutas construir soluciones robustas de software y datos, este desafío es para ti! En Falabella Tecnología buscamos un Senior DevOps Engineer para sumarse al equipo de Plataforma de Datos, con un rol clave en la construcción y evolución de nuestra plataforma de datos moderna (Lakehouse) sobre GCP, habilitando a los equipos de Analytics, BI, Data Engineering y Ciencia de Datos. Somos Falabella, un equipo diverso de más de 100 mil colaboradores, compuesto por grandes marcas como Falabella Retail, Sodimac, Banco Falabella, Seguros Falabella, Tottus, Mallplaza, Open Plaza y Linio, con presencia en 7 países de Latinoamérica, además de oficinas en China e India. **Cada día es diferente:** trabajamos de forma colaborativa, con alto estándar técnico y foco en impacto. Si te motivan los desafíos complejos y construir plataformas estratégicas para el negocio, esta es tu oportunidad de hacer que las cosas pasen. Propósito del rol El desafío principal del cargo es diseñar, construir y operar las capacidades DevOps que soportan la Plataforma de Datos, asegurando despliegue continuo, confiabilidad, seguridad y eficiencia de costos, con un fuerte énfasis en DataOps e Ingeniería de Software. Principales responsabilidades Diseñar, implementar y mantener pipelines de CI/CD en GitLab/Github para infraestructura, software y componentes de datos. Desarrollar software y automatizaciones, principalmente en Python, para soportar procesos de DataOps, validaciones, orquestación y tooling interno. Crear, desplegar y mantener infraestructura como código utilizando Terraform, principalmente sobre GCP, considerando alta disponibilidad, seguridad y optimización de costos. Operar y dar soporte a workloads containerizados en Kubernetes, realizando troubleshooting avanzado en servicios distribuidos. Habilitar y operar flujos de DataOps para la plataforma Lakehouse (dbt, pipelines de datos, gestión de ambientes). Implementar y evolucionar observabilidad y monitoreo de infraestructura, servicios y pipelines de datos, utilizando Prometheus, Grafana y Datadog. Trabajar de manera cercana con equipos de Data Engineering, Analytics, BI y Data Science, entendiendo sus necesidades y habilitando capacidades de plataforma. Definir y promover buenas prácticas de DevOps, DataOps e Ingeniería de Software, impulsando automatización, calidad y confiabilidad. Perfil que buscamos Buscamos una persona analítica, orientada a la automatización y con mentalidad de ingeniería, que combine experiencia sólida en DevOps con capacidad real de desarrollo de software y entendimiento de plataformas de datos. **Deseables:** Experiencia trabajando con plataformas de datos modernas (Lakehouse, dbt, Iceberg, Data Lakes). Conocimiento de arquitecturas de datos y analítica. Experiencia en optimización de costos y seguridad en entornos cloud. **Requisitos:** Experiencia sólida como DevOps Engineer en entornos cloud (idealmente GCP) Desde 03 años de experiencia trabajando con alguna herramienta de CI/CD como Gitlab, Jenkins, etc Experiencia trabajando con herramientas de IaC como Terraform, Pulumi, CloudFormation, etc. Conocimientos basicos sobre redes (VPC, LB, NAT, etc) Fluides en algun lenguaje de scripting como Bash, Python, Javascript u otro Conocimiento práctico de DataOps y operación de pipelines de datos. Experiencia administrando cluster(s) de Kubernetes (AKS, GKE, EKS, etc) Manejo fluido de Git (Branching, rebase, resolucion de conflictos) Disponibilidad de trabajar modalidad hibrida. Dominio de Ingles nivel Intermedio **Condiciones oferta:**


