Los dashboards se rehacen cada pocos meses porque el modelo de datos que los sustenta está mal diseñado. Cómo construir una base sólida que aguante la evolución del negocio.
📌 En resumen
Un modelo de datos bien diseñado para reporting permite añadir métricas, fuentes e informes sin reconstruir la base. Los modelos que se rehacen cada pocos meses suelen fallar por mezclar lógica de negocio en las consultas, no separar hechos de dimensiones o no prever cambios habituales. La clave es aplicar modelado dimensional desde el inicio: tablas de hechos con métricas numéricas y tablas de dimensiones con atributos descriptivos, conectadas por claves claras. Esto permite que un nuevo informe se construya en horas en lugar de días. Además, centralizar las definiciones de KPIs en el modelo evita que cada informe calcule la misma métrica de forma diferente.
«Lo hicimos hace seis meses pero ya no sirve. Necesitamos rehacerlo.» Es una frase que escuchamos con demasiada frecuencia cuando hablamos con empresas que han invertido en dashboards o reporting automatizado. El problema casi nunca es la herramienta de visualización. Es lo que hay debajo: el modelo de datos.
Un modelo de datos bien diseñado permite añadir nuevos informes, nuevas métricas y nuevas fuentes de datos sin tener que empezar de cero. Uno mal diseñado convierte cada nueva necesidad en un proyecto de reconstrucción. La diferencia entre ambos no es complejidad técnica: es metodología.
Los motivos más frecuentes por los que un modelo de datos deja de funcionar son predecibles y evitables:
No hace falta ser un ingeniero de datos para entender los principios que hacen que un modelo de datos sea robusto. Estos son los más importantes:
Es el principio más básico del modelado dimensional, y el que más se ignora en pymes. Los hechos son las transacciones o eventos (ventas, pedidos, entregas, tickets). Las dimensiones son el contexto (producto, cliente, fecha, zona, vendedor). Si mezclas ambos en una sola tabla gigante, cada consulta nueva es un calvario.
El margen bruto, la tasa de conversión, el OTIF, el coste por unidad: cada métrica debe tener una definición única en el modelo, consensuada con el negocio. Si el CFO y el COO usan definiciones distintas, el problema no es técnico: es organizativo. Y hay que resolverlo antes de construir el modelo, no después.
Un modelo de datos robusto tiene al menos tres capas:
Esta separación en capas permite que un cambio en el ERP solo afecte a la capa de ingesta, que una nueva regla de cálculo solo modifique la capa de transformación, y que un nuevo informe solo requiera cambios en la capa de consumo. Sin esta estructura, un cambio en cualquier parte afecta a todo.
💡 Consejo
La prueba de que tu modelo está bien diseñado es esta: ¿puedes añadir un nuevo dashboard sin tocar la capa de transformación? Si la respuesta es sí, el modelo aguanta. Si cada informe nuevo requiere rehacer las transformaciones, el modelo no está bien estructurado.
Supongamos una empresa mediana con un ERP (ventas, pedidos, clientes) y un CRM (leads, oportunidades, actividades comerciales). La dirección quiere un dashboard que responda a estas preguntas: ventas por producto, cliente y zona; evolución mensual comparada con el año anterior; pipeline comercial por etapa; y tasa de conversión de lead a cliente.
Un enfoque ingenuo sería crear una tabla plana con todas las columnas necesarias mezcladas. El enfoque correcto separa los datos en tablas de hechos y dimensiones:
Con esta estructura, añadir un nuevo informe (por ejemplo, rendimiento por comercial o análisis de descuentos) no requiere tocar las tablas existentes: basta con añadir una nueva medida o una nueva dimensión. Es la diferencia entre un modelo que crece y uno que se rompe.
La elección de herramienta depende del volumen de datos, del equipo disponible y del ecosistema tecnológico de la empresa. No hay una solución universal, pero sí hay combinaciones que funcionan bien para la empresa mediana española:
| Perfil | Capa de transformación | Almacenamiento | Consumo/BI |
|---|---|---|---|
| Pyme con 1-3 fuentes de datos y equipo técnico limitado | Power Query en Power BI | Modelo semántico de Power BI (import mode) | Power BI |
| Empresa mediana con varias fuentes y necesidad de auditoría | dbt sobre base de datos cloud | PostgreSQL, BigQuery o SQL Server | Power BI, Looker Studio o Metabase |
| Empresa con ecosistema Microsoft avanzado | dbt o Dataflows en Fabric | Microsoft Fabric Lakehouse | Power BI con modelo semántico compartido |
Lo importante no es la herramienta sino la disciplina. Un modelo bien estructurado en Power Query dentro de Power BI es mejor que un modelo caótico en la herramienta más sofisticada del mercado. La clave es respetar las capas (ingesta, transformación, consumo) independientemente de la tecnología.
Cambiar de ERP es uno de los momentos que más evidencia si el modelo de datos está bien diseñado. Si el modelo depende directamente de las tablas del ERP (nombres de campos, estructura específica, lógica del sistema de origen), el cambio de ERP obliga a reconstruir todo el reporting desde cero.
Si el modelo tiene una capa de ingesta que abstrae el origen y una capa de transformación que aplica las reglas de negocio de forma independiente, el cambio de ERP solo afecta a la capa de ingesta. Las transformaciones y los dashboards siguen funcionando porque trabajan sobre conceptos de negocio (ventas, clientes, productos), no sobre las tablas específicas de un sistema.
ℹ️ Nota
Una buena forma de validar tu diseño es hacer este ejercicio mental: si mañana cambiamos de ERP, ¿cuántos dashboards tendríamos que rehacer? Si la respuesta es «todos», el modelo tiene un problema de acoplamiento al sistema de origen que conviene resolver antes de que el cambio sea real.
Un modelo de datos que funciona el primer día pero se degrada en seis meses suele tener un problema de gobierno, no de diseño. Alguien añade un campo «rápido» en la capa de consumo saltándose la transformación. Otro cambia la definición de un KPI sin avisar al resto de áreas. Un tercero conecta una fuente nueva directamente al dashboard sin pasar por la capa de ingesta.
Si estás a punto de montar tu primer modelo de datos para reporting o sospechas que el actual necesita una revisión, el proceso empieza siempre por lo mismo: definir qué preguntas de negocio necesitas responder, identificar las fuentes de datos y acordar las definiciones de los KPIs con los responsables de cada área. La tecnología viene después. Si necesitas ayuda para diseñar esa base, nuestro equipo de análisis de datos trabaja exactamente con este enfoque, y si ya tienes datos en Power BI o similar, la consultoría de Power BI incluye la auditoría del modelo existente como punto de partida.
Siguiente paso recomendado
El modelo de datos es la base de todo buen reporting. Te ayudamos a diseñarlo y desplegarlo en Power BI.
Sin compromiso · Respuesta en < 24h
Autor
Fundador y Consultor de Datos e IA
David Aldomar es fundador y consultor principal de MERIDIAN Data & IA, consultora especializada en ayudar a pymes y empresas medianas en España a tomar mejores decisiones con sus datos. Su trabajo se centra en cuatro áreas: diseño e implantación de plataformas de datos (data warehouses, pipelines ETL con dbt, integración de ERPs y CRMs), reporting y dashboards ejecutivos en Power BI, automatización de procesos de negocio con herramientas como n8n, y desarrollo de soluciones de inteligencia artificial aplicada — desde modelos de forecasting de demanda hasta copilots internos basados en RAG con LangChain y FastAPI. Ha liderado proyectos en sectores como logística y transporte, retail y distribución, servicios financieros, manufacturing y construcción, siempre con un enfoque pragmático: diagnóstico corto, entregables concretos y transferencia de conocimiento al equipo del cliente para que sea autónomo desde el primer día. Antes de fundar MERIDIAN, acumuló experiencia en consultoría de datos y transformación digital trabajando con stacks variados — desde entornos Microsoft (SQL Server, Power BI, Azure) hasta ecosistemas open source (Python, dbt, BigQuery). Su filosofía es que un buen proyecto de datos no se mide por la tecnología que usa, sino por las decisiones de negocio que permite tomar. Escribe regularmente en el blog de MERIDIAN sobre reporting, gobierno del dato, automatización e IA aplicada, con guías prácticas orientadas a responsables de negocio y equipos técnicos de empresas que quieren sacar partido real a sus datos sin depender de grandes consultoras.
Seguir leyendo