Guía Completa - Cómo Usar Depth ControlNet con SD1.5 en ComfyUI
Introducción a SD1.5 Depth ControlNet
Depth ControlNet es un modelo ControlNet especializado diseñado para controlar la profundidad y estructura espacial de las imágenes. Mediante el análisis de la información de profundidad de las imágenes de entrada, ayuda a la IA a mantener relaciones espaciales y efectos de perspectiva correctos al generar nuevas imágenes. Este modelo es particularmente útil en diseño de interiores, diseño arquitectónico y reconstrucción de escenas, ya que puede entender y preservar con precisión la información de profundidad espacial.
Este tutorial se centra en el uso y técnicas del modelo Depth ControlNet para SD1.5. Cubriremos otras versiones y tipos de modelos ControlNet en futuros tutoriales.
Características Principales de Depth ControlNet
- Control Espacial: Control preciso sobre relaciones de profundidad espacial y perspectiva
- Reconstrucción de Escenas: Mantiene el diseño espacial original mientras cambia el estilo y contenido
- Diseño de Interiores: Especialmente adecuado para rediseño y transformación de estilo de escenas interiores
- Visualización Arquitectónica: Altamente efectivo para visualización 3D de diseños arquitectónicos e interiores
- Exhibición de Productos: Ideal para crear exhibiciones de productos con percepción de profundidad
- Planificación de Escenas: Ayuda en la visualización de diseño paisajístico y planificación urbana
Preparación del Flujo de Trabajo de SD1.5 Depth ControlNet
1. Instalación de Plugins Necesarios
Dado que ComfyUI Core no incluye el preprocesador de imágenes Depth correspondiente, necesitarás descargar primero el plugin preprocesador. Este tutorial requiere el plugin ComfyUI ControlNet Auxiliary Preprocessors para generar mapas de profundidad.
Recomendamos usar ComfyUI Manager para la instalación. Para instrucciones detalladas de instalación de plugins, consulta la Guía de Instalación de Plugins de ComfyUI
La última versión de ComfyUI Desktop viene con ComfyUI Manager preinstalado
Método 1: Usando ComfyUI Manager (Recomendado)
- Primero instala ComfyUI Manager
- Busca e instala “ComfyUI ControlNet Auxiliary Preprocessors” en el Manager
Método 2: Instalación vía Git
- Abre la línea de comandos y navega al directorio custom_nodes de ComfyUI
- Ejecuta los siguientes comandos:
git clone https://github.com/Fannovel16/comfyui_controlnet_aux
cd comfyui_controlnet_aux
pip install -r requirements.txt
Nota: Reinicia ComfyUI después de instalar los plugins
Método 3: Instalación Manual (No Recomendado)
- Visita https://github.com/Fannovel16/comfyui_controlnet_aux
- Descarga el archivo ZIP del repositorio de código
- Copia los archivos extraídos a la carpeta
ComfyUI/custom_nodes/
2.1 Descargar Modelos Necesarios
Primero necesitas instalar los siguientes modelos:
Tipo de Modelo | Archivo del Modelo | Enlace de Descarga |
---|---|---|
Modelo Base SD1.5 | dreamshaper_8.safetensors | Civitai |
Modelo Depth ControlNet | control_v11f1p_sd15_depth.pth | Hugging Face |
Modelo VAE (Opcional) | vae-ft-mse-840000-ema-pruned.safetensors | Hugging Face |
Puedes usar cualquier modelo SD1.5 que tengas en tu computadora. En este tutorial, uso dreamshaper_8 como ejemplo, pero para diseño de interiores y casos similares, deberías elegir modelos específicamente optimizados para diseño de interiores o arquitectónico.
2.2 Estructura de Archivos de Modelos
Coloca los archivos de modelos según esta estructura:
📁ComfyUI
├── 📁models
│ ├── 📁checkpoints
│ │ └── 📁SD1.5
│ │ └── dreamshaper_8.safetensors
│ ├── 📁controlnet
│ │ └── 📁SD1.5
│ │ └── control_v11f1p_sd15_depth.pth
│ └── 📁vae
│ └── vae-ft-mse-840000-ema-pruned.safetensors
3. Archivos de Flujo de Trabajo
El diseño de interiores es una de las aplicaciones más comunes de Depth ControlNet. A través del control de la información de profundidad, puedes mantener la disposición espacial original mientras transformas completamente el estilo y la atmósfera del interior.
Aquí hay un ejemplo de convertir una sala de estar tradicional en estilo cyberpunk:
Guía del Flujo de Trabajo de SD1.5 Depth ControlNet
Componentes Principales
Este flujo de trabajo utiliza los siguientes nodos clave:
- LoadImage: Carga la imagen de entrada
- Zoe-DepthMapPreprocessor: Genera mapas de profundidad, proporcionado por el plugin ComfyUI ControlNet Auxiliary Preprocessors
- resolution: Controla la resolución del mapa de profundidad, afectando su nivel de detalle:
- Resolución alta (ej. 768, 1024):
- Ventajas: Captura más detalles, mejor para interiores complejos y arquitectura
- Desventajas: Procesamiento más lento, mayor uso de VRAM
- Casos de uso: Diseño de interiores detallado, reproducción de detalles arquitectónicos
- Resolución baja (ej. 384, 512):
- Ventajas: Procesamiento rápido, menor uso de VRAM
- Desventajas: Puede perder información de detalles
- Casos de uso: Vistas previas rápidas, reconstrucción de escenas simples
- Configuraciones recomendadas:
- Escenas generales: 512 es un buen equilibrio
- Requisitos de alto detalle: 768 o superior
- Pruebas rápidas: 384
- Resolución alta (ej. 768, 1024):
- Utiliza el algoritmo de estimación de profundidad Zoe para mapas de alta calidad
- Especialmente adecuado para escenas interiores y arquitectónicas
- Puede previsualizar mapas de profundidad generados a través del nodo PreviewImage
- resolution: Controla la resolución del mapa de profundidad, afectando su nivel de detalle:
Consejo: Comienza con una resolución más baja para pruebas y ajustes, luego aumenta la resolución para la generación final
Consejo: Zoe-DepthMapPreprocessor es actualmente uno de los mejores generadores de mapas de profundidad para escenas arquitectónicas e interiores, manejando bien estructuras espaciales complejas y detalles
Guía de Parámetros y Recomendaciones de Depth ControlNet
Parámetros de KSampler
-
steps (pasos de muestreo)
- Función: Controla el detalle y la calidad de la generación
- Rango recomendado: 25-30 pasos
- Detalles:
- Pasos altos (30+): Resultados más detallados pero más lentos
- Pasos bajos (20-): Más rápido pero puede perder detalles
- Se recomienda mínimo 25 pasos para estructura espacial precisa
-
cfg (Guía Libre de Clasificador)
- Función: Controla la adherencia a los prompts
- Rango recomendado: 6-8
- Detalles:
- Valores altos (8+): Mayor adherencia a prompts pero menos creatividad
- Valores bajos (5-): Más creatividad pero puede desviarse de la intención
- Se recomienda 6-7 para diseño de interiores para equilibrar precisión y creatividad
-
sampler_name (muestreador)
- Recomendaciones:
- euler: Rápido, bueno para vistas previas
- dpmpp_2m: Alta calidad, ideal para generación final
- Elecciones según escena:
- Diseño de interiores: Preferir dpmpp_2m
- Pruebas rápidas: Usar euler
- Recomendaciones:
-
scheduler (programador)
- Recomendado: karras
- Razón: Mejor para mantener la estructura espacial
Parámetros de Control de ControlNet
-
strength (fuerza)
- Función: Determina la influencia de la información de profundidad
- Rango recomendado: 0.8-1.0
- Recomendaciones por escena:
- Diseño de interiores: 0.9-1.0
- Exteriores de edificios: 0.8-0.9
- Escenas simples: 0.7-0.8
-
start_percent y end_percent
- Función: Controla el rango de acción de la guía de profundidad
- Configuración predeterminada:
- start_percent: 0 (aplicar desde el inicio)
- end_percent: 1 (mantener durante todo el proceso)
- Casos especiales:
- Para más libertad creativa: establecer end_percent en 0.8-0.9
- Para estructura espacial estricta: mantener valores predeterminados
Consejo: Combina parámetros efectivamente - para diseño de interiores, usa strength alto (0.9+) con steps altos (30+) para mejores resultados
Descripción de Nodos del Flujo de Trabajo
Conexiones principales de nodos:
-
Sección de Entrada:
- LoadImage → Zoe-DepthMapPreprocessor → PreviewImage (para vista previa del mapa de profundidad)
- LoadImage → Zoe-DepthMapPreprocessor → ControlNetApplyAdvanced
-
Sección de Carga de Modelos:
- CheckpointLoaderSimple (carga el modelo base)
- ControlNetLoader (carga Depth ControlNet)
-
Sección de Procesamiento de Prompts:
- CLIPTextEncode (procesa prompts positivos)
- CLIPTextEncode (procesa prompts negativos)
-
Sección de Control de Generación:
- KSampler (controla el proceso de generación)
- VAEDecode (convierte imagen latente en imagen final)
Consejos y Mejores Prácticas para Depth ControlNet
-
Control de Calidad del Mapa de Profundidad
- Usar imágenes de entrada de alta calidad
- Asegurar jerarquía espacial clara
- Evitar escenas demasiado complejas
- Considerar el efecto de la iluminación
-
Escritura de Prompts
- Describir relaciones espaciales en detalle
- Incluir información de materiales e iluminación
- Señalar elementos de profundidad importantes
- Usar términos profesionales
- Palabras clave recomendadas:
- Espaciales: depth, perspective, spatial layout, composition
- Calidad: professional, high quality, detailed, realistic
- Estilo: modern, minimalist, futuristic (según necesidades)
-
Solución de Problemas Comunes
- Falta de profundidad: Aumentar strength
- Pérdida de detalles: Reducir cfg
- Deformación estructural: Aumentar steps
- Profundidad inexacta: Ajustar resolution
- Estilo incorrecto: Optimizar prompts
Preguntas Frecuentes (FAQ)
-
¿Por qué la imagen generada carece de sentido espacial?
- Verificar claridad del mapa de profundidad
- Confirmar si strength es suficientemente alto
- Considerar aumentar steps
-
¿Cómo mejorar la calidad de la imagen?
- Usar resolution más alta
- Seleccionar muestreador apropiado
- Optimizar descripción de prompts
-
¿Qué hacer si la generación es muy lenta?
- Reducir resolution
- Usar muestreador más rápido
- Reducir pasos de muestreo
-
¿Cómo mantener la disposición original?
- Aumentar strength
- Mantener end_percent en 1
- Usar descripción espacial más detallada