ComfyUI LipSync с ReActor и Wave2Lip: полный гайд + устранение ошибок ReActor

В этом подробном руководстве Владимир Чопин объясняет, как настроить синхронизацию губ (lip-sync) в ComfyUI на локальном компьютере. В процессе вы узнаете, как установить Wave2Lip, React и все необходимые зависимости. Также мы разберём, как использовать встроенные шаблоны и внешние рабочие процессы, устранить ошибки установки React и исправить проблемы с Python и аудиобиблиотеками. Всё это работает полностью офлайн с использованием ComfyUI 0.3.66 (portable) и встроенного Python 3.13 (embedded). Основные ресурсы (текстовые ссылки) Главная страница ComfyUI:
ComfyUI v0.2.3 (устаревшая, но совместимая версия):
ComfyUI-Manager:
ComfyUI-ReActor (узел React):
ComfyUI-LatentSyncWrapper (узел Lip Sync):
Python для Windows (официальная страница):
FFmpeg сборки для Windows:
Git для Windows:
Платформа Domo AI Talking Avatar:
Полное руководство: установка Lip Sync в ComfyUI с Wave2Lip + React (локальная установка, исправления и расширенный рабочий процесс)
Присоединяйтесь к нам в Telegram: Чат:
Новости: @geekatplayru ⚠️ AFFILIATE DISCLOSURE: We may earn a commission from purchases made through the links below at no extra cost to you. Recommended services: Best quality outfits:
NordVPN:
Assets:

Topaz AI Video and Photo processing:
My store:
Patreon:   / geekatplay  
0:00 Вступление — что такое lip sync в ComfyUI локально 0:06 Обзор примеров: встроенные и дополнительные workflows 0:21 Почему используем ReActor; типичные проблемы запуска 0:41 Где искать готовые шаблоны (Templates → Video) 1:08 Два шаблона: Humo Video Generation и VAN 2.2 1:21 Автодогрузка моделей и что нужно подготовить (референс, аудио, промпт) 2:01 Важность корректного промпта — иначе игнорируется картинка 2:07 Ограничения: модели обучены на людях (нечеловеческие лица хуже) 2:17 Демо 1: базовый липсинк — работает, но короткие клипы 2:33 Тест с маппетом — движение по музыке без точной синхронизации 3:04 VAN 2.2: режимы turbo/normal, длинные клипы через extend 3:31 Результаты VAN 2.2: лучше губы, устойчивее на куклах/животных 4:02 Минусы: тяжёлая модель, иногда промах по артикуляции 4:10 Внешние пайплайны: Wave2Lip и LatentSync Warper 4:36 MediaPipe-требование для некоторых — нужен Python 3.11 5:05 Почему предпочтён ReActor: не только LipSync, но и Face Swap 5:58 Установка узлов через git clone в custom_nodes 6:24 Терминал из папки (CMD) и базовые команды 6:49 Если нет Git/FFmpeg — где скачать и зачем они нужны 7:31 FFmpeg: распаковка и добавление bin в PATH (Environment Variables) 8:49 Рекомендация: поставить ComfyUI-Manager для установки missing nodes 9:25 Wave2Lip: установка зависимостей через pip (используем embedded Python) 10:45 Открытие примера: как загрузить готовый JSON workflow 11:21 Красные узлы при первом запуске и установка через Manager 12:00 Реактор почти всегда падает с первой попытки (wheel/версия Python) 12:38 Правильный порядок: сначала wheel под ваш Python, потом requirements 13:31 Типовые ошибки ReActor/InsightFace и где читать подсказки 14:52 soxr/librosa: чистка кэша/переустановка; редкий баг двойной загрузки 16:00 Костыль с sitecustomize.py (только если у вас тот же баг) 20:00 Перезапуск сервера: проверяем, что все узлы зелёные 20:26 Финальный прогон: загружаем видео/аудио и запускаем 20:47 Качество липсинка: стабильнее, быстрее, лучше на статичных кадрах 21:16 Идея на будущее: связать LipSync + Face Swap в один workflow 21:33 Обратная связь: перезаписать видео чище? — пишите в комментариях 21:56 Главная причина ошибок — wheel не под ту версию Python 22:06 Заключение и благодарность за поддержку

Смотрите также