Pipelines ETL
Los pipelines automatizan importaciones recurrentes de datos desde fuentes externas hacia tu almacén de datos. Configura una conexión una vez, establece un cronograma y tus datos se mantienen actualizados automáticamente.
Crear un Pipeline
- Navega a Datos → pestaña Pipelines
- Haz clic en + Nuevo Pipeline
- Sigue el asistente de 3 pasos

Paso 1: Elegir una Conexión
Selecciona una conexión existente o crea una nueva:

Tipos de Conexión Soportados
| Fuente | Qué Necesitas | Funcionalidades |
|---|---|---|
| PostgreSQL | Host, puerto, base de datos, usuario, contraseña | Consultas SQL completas, explorador de esquema |
| MySQL | Host, puerto, base de datos, usuario, contraseña | Consultas SQL completas, explorador de esquema |
| SQL Server | Host, puerto, base de datos, usuario, contraseña | Consultas SQL completas, explorador de esquema |
| Google Sheets | ID de la hoja de cálculo, nombre de la hoja, rango | Actualización automática desde hojas compartidas |
| SharePoint | (próximamente) | — |
Explorador de Esquema (Bases de Datos)
Para conexiones a bases de datos, la plataforma proporciona un explorador visual de esquema:

- Explora tablas y columnas de forma visual
- Haz clic en columnas para agregarlas a tu consulta
- Previsualiza datos antes de configurar el pipeline
Asistente de Configuración con IA
¿No estás seguro de cómo escribir la consulta SQL? Usa el Asistente de IA:
Describe qué datos necesitas en lenguaje natural, y la IA genera la consulta SQL por ti.
Ejemplo: "Obtener todos los pedidos de los últimos 30 días con nombre del cliente, producto y monto total"
Paso 2: Configurar Cronograma

| Frecuencia | Opciones |
|---|---|
| Cada hora | Cada N horas |
| Diario | Ejecutar en horario(s) específico(s) — soporta múltiples horarios de ejecución |
| Semanal | Elige día(s) de la semana + hora |
| Cron Personalizado | Ingresa una expresión cron para flexibilidad total |
Zona horaria: Todos los cronogramas se ejecutan en tu zona horaria configurada.
Importación Incremental
Para tablas grandes, habilita la importación incremental para obtener solo filas nuevas/actualizadas:
- Selecciona una columna de rastreo de cambios (ej.,
updated_at,id) - Establece el valor inicial (ej.,
2024-01-01o0) - Cada ejecución obtiene solo las filas donde la columna de rastreo > último valor sincronizado
Esto reduce drásticamente los tiempos de carga y el impacto en la base de datos.
Paso 3: Revisar Columnas

Misma configuración de columnas que en la carga de archivos:
- Renombra columnas, cambia tipos, marca PII, establece claves
- Aplica transformaciones
- Elige modo de escritura (Agregar / Reemplazar / Fusionar)
Administrar Pipelines

Acciones del Pipeline
| Acción | Descripción |
|---|---|
| Ejecutar Ahora | Activa una ejecución inmediata |
| Pausar | Detiene temporalmente las ejecuciones programadas |
| Reanudar | Reactiva las ejecuciones programadas |
| Detener | Cancela una ejecución en curso |
| Cargar Nueva Versión | Carga un archivo para reemplazar los datos del pipeline |
| Eliminar | Elimina el pipeline permanentemente |
Historial de Ejecución
Cada pipeline muestra su historial de ejecución con:
- Estado: Éxito ✅, Advertencia ⚠️, Error ❌
- Hora de inicio y duración
- Filas ingeridas
- Detalles del error (si los hay)
Consejos
Mejores Prácticas para Pipelines
- Usa importación incremental para tablas grandes y minimizar tiempos de carga
- Establece nombres significativos para conexiones y pipelines
- Prueba tu consulta SQL con el Explorador de Esquema antes de programar
- Monitorea la pestaña de Calidad para detectar fallos de ingesta
- Usa modo fusionar con columnas clave para comportamiento de upsert