




Resumen del Puesto: Buscamos un QA Data Quality Funcional para validar la calidad y consistencia de datos en nuestro DataLake en GCP, asegurando la confiabilidad de la información en células ágiles de Big Data. Puntos Destacados: 1. Asegurar la confiabilidad de la información en entornos Big Data. 2. Validar calidad, consistencia y comportamiento funcional de datos en GCP. 3. Participar activamente en células ágiles de Big Data. ¡En Stefanini LATAM estamos en búsqueda de un/a QA Data Quality Funcional para unirse a nuestro equipo y contribuir a la validación de la calidad, consistencia y comportamiento funcional de los datos dentro de nuestro DataLake corporativo en GCP! Si te apasiona asegurar la confiabilidad de la información, trabajar con datos y participar en células ágiles de Big Data, ¡esta oportunidad es para ti! Ubicación: Santiago de Chile. Modalidad: Híbrida, 2 a 3 veces por semana. Principales responsabilidades: -Validar procesos de ingesta de datos en distintas capas del DataLake: Raw, Curated y Semantic. -Verificar integridad, completitud, duplicidad y consistencia entre distintas fuentes de información. -Validar reglas de negocio, transformaciones y cálculos ejecutados por pipelines de datos. -Revisar resultados de consultas SQL y salidas generadas por procesos de transformación. -Ejecutar pruebas funcionales sobre pipelines de datos en entornos Big Data. -Revisar logs, servicios, jobs y tareas ejecutadas dentro de los pipelines de procesamiento. -Validar resultados en ambientes cloud asociados al DataLake en Google Cloud Platform (GCP). -Analizar resultados y métricas de data profiling y calidad de datos. -Diseñar y ejecutar casos de prueba funcionales orientados a datos. -Asegurar el cumplimiento de criterios funcionales definidos por negocio, dominios de datos y Gobierno del Dato. -Participar activamente en células ágiles Big Data y en la certificación funcional de historias de usuario. -Colaborar con Data Engineers, Data Owners y equipos de Data Governance. Requisitos técnicos y competencias: -Experiencia en testing funcional orientado a datos. -Sólido conocimiento de SQL para validación de integridad, cálculos y reglas de negocio. -Experiencia validando ingestas, transformaciones y consultas de datos. -Manejo de ecosistemas Big Data, DataLake y pipelines de datos. -Experiencia revisando logs, jobs y procesos en pipelines de datos. -Manejo de herramientas Atlassian como Jira, TM4J / Xray y Bitbucket. -Conocimiento de Google Cloud Platform (GCP) aplicado a ecosistemas de datos. Conocimientos deseables: -Modelos de datos analiticos: EST, DDL y particionado. -Conceptos de Data Governance, linaje de datos y metadatos. -Experiencia con dominios de datos y reglas de calidad definidas por GDD. -Conocimiento del ciclo de vida del dato en entornos GCP: QA - Produccion. -Experiencia en entornos regulatorios o normativos del sector financiero. -Experiencia trabajando bajo metodologias agiles aplicadas a delivery de datos.-Requerimientos- Educación mínima: Educación media C.H. / Técnica 3 años de experiencia Edad: entre 24 y 60 años Palabras clave: calidad, quality, qa
