Validación de socios y actualización de datos
Flujos de portal ligados a validación y calidad del dato aguas abajo.
Trabajo sobre portales de socios combinando validación con LALIGA, actualización obligatoria de datos y normalización de registros legacy inconsistentes antes de llegar al DataLake.
Rol
Ingeniero full-stack / Responsable de integraciones
Tipo
Trabajo para clientes
Contexto
Contexto
Este trabajo se hacía sobre portales de socios donde los usuarios tenían que validarse con idPersona y PIN, y después actualizar datos de perfil antes de acceder a servicios o flujos de compra.
Problema
Problema y restricciones
Los datos que llegaban desde sistemas legacy eran inconsistentes: códigos postales y municipios no coincidían, los países aparecían en formatos distintos y los formularios acumulaban años de valores sin normalizar.
Además, los usuarios se bloqueaban en login y actualización porque los campos de identidad y perfil muchas veces estaban mal desde origen, así que el portal tenía que distinguir entre credenciales inválidas, input mal formado y problemas de datos recuperables.
El flujo tenía que validar contra APIs de LALIGA y empujar los datos corregidos hacia el DataLake, así que no se podía aceptar entrada defectuosa para limpiarla después.
Enfoque
Enfoque y decisiones técnicas
Diseñé flujos de login, registro y actualización obligatoria de perfil con validación tanto en frontend como en backend, incluyendo comprobaciones de idPersona y PIN antes de dejar avanzar al usuario dentro del portal.
Para la normalización usé reglas explícitas y mapeos en JSON para comprobar pares de código postal y municipio, y añadí validación server-side, control de duplicados, índices y restricciones en base de datos antes de guardar y enviar la información aguas abajo.
Retos
Retos
Resultado
Resultado
Los portales dejaron de aceptar datos de perfil inconsistentes tal cual y pasaron a exigir actualizaciones normalizadas antes de continuar.
Eso redujo usuarios bloqueados por input mal formado en identidad y perfil, y bajó la cantidad de registros desajustados que llegaban al DataLake y a flujos operativos aguas abajo.