Telegram Web
Hailuo: выпустили видеогенератор Hailuo 02.

Улучшилось следование промту, качество картинки, и динамика объектов. Заметно подтянули физику, например в акробатике и симуляции жидкости. Хотя взаимодействия объектов (драка, авария, итд), особенно когда их много, пока ещё даются тяжело.

Модель работает в txt-2-vid и img-2-vid. Выдаёт 1080p с максимальной длиной 10 секунд. На бесплатном тарифе доступно 768p с длительностью 6 секунд.

Цены:
* 768p 6 сек = 25 кредитов ($0.25), 10 сек = 50 кредитов ($0.50)
* 1080p только 6 сек = 80 кредитов ($0.80)
* Подписка от $10/мес (1000 кредитов)

До 21 июня новым аккаунтам дают 500 халявных кредитов. Го пробовать!

Анонс
Сайт
Media is too big
VIEW IN TELEGRAM
AI-видео проникают в подборки мемов YouTube-каналов миллионников.

Сколько их в этом видосе?

PS: вовремя успел скачать, а то видео стало не доступно из-за копирайт клейма лейблов. Не нравится мне эта система.

Unusual Memes (YouTube)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Nijijourney: версия Midjourney, натренированная на аниме и манге, теперь тоже генерирует видео.

Опенинг в посте сгенерирован целиком в Niji. То, что они повторно использовали пару фрагментов в видео намекает на уровень черрипикинга. Madhouse и MAPPA пока могут спать спокойно.

В целом всё равно выглядит годно. Качество картинки, планы, динамика и переходы действительно анимешные.

Чтобы начать, заходите на их сайт. Нажимаете Create, генерите/загружаете картинку, пишете промт, и вперёд.

Стиль изображения влияет на анимацию. Если картинка в стиле ТВ аниме, она будет иметь ТВшные движения. Если вкинуть реалистичный 3D рендер, движения будут отражать объём и реализм.

Правила написания хорошего промта:

* Описываем то, что можно увидеть, а не то, что персонаж чувствует.
* Описываем основное действие (что происходит)
* Описываем фоновое действие (происходящее вокруг в результате основного действия)

На выходе также 480p длиной в 5 сек. Если у вас есть подписка Midjourney, она тут тоже работает.

PS: осталось генерить сразу на рутрекер с сабами и голосами любимых актёров озвучки.

Сайт
Анонс
Какое аниме вы хотели бы снять/продолжить/переделать?

Я писал почти 3 года назад, что было бы норм увидеть нейронно-фанатское продолжение Берсерка, раз Миуры уже нет с нами. А теперь есть возможность и видео генерить. Можно экранизовать историю по манге с начала, а не как её интерпретировали в аниме. Если NJ по копирайту и кровушке не стянет, то затюненные Wan и ко помогут.

Сам-то я бы хотел нормальной экранизации 2 сезона One Punch Man. Рисовка Мураты шикарна и то, что с ней сделали J.C.Staff должно караться просмотром всех филлеров Наруто как в Заводном апельсине.
Midjourney: заметили, что видео в соцсетях выглядят слишком пожато и оптимизировали их, дабы решить проблему.

Чтобы скачать видео оптимизированное для соцсетей, нажмите на нём правой кнопкой и выберите "Save for Social Media". С Nijijourney должно работать тоже.

На видосах пример до и после.

Про Midjourney Video 1
Про Nijijourney Video 1
Стоило мне упомянуть Берсерка и возможность его экранизации в нужном русле сообществом с помощью Midjourney // Nijijourney, как сразу Дима Алексеев в своём канале AI Filmmaker уже наваял видос.
Forwarded from Ai Filmmaker
Media is too big
VIEW IN TELEGRAM
Midjourney Video V1 - утраченные мечты стали еще ближе.

Я как и многие всей душой люблю аниме сериал "Берсерк" 1997 года ( Однажды мы с Ai Molodca даже случайно пришли на встречу в футболках с Berserk) и тоже испытываю разные чувства из-за трагедии, которая постигла великолепный анимационный проект. Закончившись на самом интересном месте, он не получил продолжения. Все последующие адаптации — бездушные 3D-римейки той же части истории. А мечты фанатов о продолжении так и остались мечтами. Хотя особо хардкорные даже начали делать сами .

Но тут вдруг сошлись звёзды. Выход видео модели Midjourney V1, которая побила всех конкурентов в сегменте анимации. И пост Андрея. Которые подарили мне шальную идею — немного заглянуть в светлое будущее, когда можно будет самому экранизировать мангу напрямую через нейросети. А поверьте, это вопрос времени.

И я попросил ChatGPT стилизовать кадры из манги. А он взял и сделал. Не с первого раза, не идеально - но сделал. А Midjourney V1 всё это органично заанимировал. Так я за выходные сжег все свои кредиты, но подложив тот самый трек - понял: это того стоило.

Ждем видео-версию Nijijourney, заточенную под аниме!

Ai Filmmaker подписаться.
This media is not supported in your browser
VIEW IN TELEGRAM
Горячие опенсорсные девушки!

Контроль пламени с помощью масок в Wan. Залипательно.

А Midjourney так может?

Автор
Бесшовные длинные видео.

Smooth Travel: у генераторов ваяющих видосы по двум кадрам есть проблема, что стык виден по цветам, подводящему движению, и паузе на месте шва.

Котаны с Banodoco, а именно его основатель Pom, сделал воркфлоу Smooth Travel для плавного перехода между ключевыми кадрами без этого косяка.

Работает на базе его же аниматора картинок Steerable Motion, для которого есть ноды в Comfy. Открывам воркфлоу, закидываем 7 изображений, пишем промт, выбираем нужные параметры и генерим. По ходу пьесы получаем 7 видео фрагментов, которые в конце объединяются в одно.

Воркфлоу по умолчанию настроен в 8 шагов генерить крупными 14B версиями Wan и VACE, но можно использовать и 1.3B. На удивление весьма неплохо выходит по качеству, если отключить TeaCache (для этой модели он и ни к чему). 14B очень хорошо сохраняет и дорисовывает детали. Между fp8 и fp16 разницы по скорости почти нет 57 сек/шаг против 58 сек/шаг ибо много обработки перекладывается на RAM, а по качеству она видна в детализации (нет пожатости).

FPS дефолтно стоит на 8, потому что сгенерившиеся фрагменты в конце с помощью FILM VFI интерполируются в 2 раза (или как сам поставишь) и сшиваются в итоговое видео. Я попробовал разный фреймрейт, не увидел сильной разницы по потреблению VRAM и оставил везде 24 fps, отключив интерполяцию. Что ещё дало и прирост скорости, ибо не нужно было ждать пока кадры соединятся и кэш отчистится.

Далее тесты на 4090 + 128 ГБ RAM, PyTorch 2.7, CUDA 12.9.


1.3B (fp16) скорость и потребление:

512х512, хрон 61 кадр, 8 fps, 8 шагов, 1,3 сек/шаг, TeaCache OFF, BlockSwap OFF, FLIM VFI ON === 213 сек (3,5 мин) // 6,5 ГБ VRAM

512х512, хрон 61 кадр, 24 fps, 8 шагов, 1,3 сек/шаг, TeaCache OFF, BlockSwap OFF === 115 сек (2 мин) // 6,5 ГБ VRAM

1024х1024, хрон 61 кадр, 24 fps, 8 шагов, 13 сек/шаг, TeaCache OFF, BlockSwap OFF === 814 сек (13,5 мин) // 15,2 ГБ VRAM

1024х1024, хрон 61 кадр, 24 fps, 8 шагов, 8,6 сек/шаг, TeaCache ON, BlockSwap OFF === 723 сек (12 мин) // 15,2 ГБ VRAM


14B (fp8) скорость и потребление:

512х512, хрон 61 кадр, 24 fps, 8 шагов, 6,5 сек/шаг, TeaCache OFF, BlockSwap OFF === 424 сек (7 мин) // 24 ГБ VRAM // 65 ГБ RAM

1024x1024, хрон 61 кадр, 24 fps, 8 шагов, 57 сек/шаг, TeaCache OFF, BlockSwap 25 Wan / 5 VACE === 2956 сек (49 мин) // 24 ГБ VRAM // 80 ГБ RAM


14B (fp16) скорость и потребление:

512х512, хрон 61 кадр, 24 fps, 8 шагов, 9 сек/шаг, TeaCache OFF, BlockSwap 15 Wan / 5 VACE === 497 сек (8 мин) // 24 ГБ VRAM // 85 ГБ RAM

1024х1024, хрон 61 кадр, 24 fps, 8 шагов, 58 сек/шаг, TeaCache OFF, BlockSwap 30 Wan / 5 VACE === 3015 сек (50 мин) // 24 ГБ VRAM // 117 ГБ RAM

Каждый сгенерированный фрагмент съедает пару гигов RAM. Энергопотребление в моменте подлетает до 547 Вт.

Без BlockSwap запустить fp16 и частично fp8 не получалось, упиралось в VRAM. На дефолтных BlockSwap перекладывает 40 Wan и 5 VACE блоков трансформера с обработки видеопамятью на процессор и оперативку. Так он будет занимать 19 ГБ VRAM плюс 79 ГБ RAM.

Уменьшив количество блоков до 30 удалось загрузить VRAM до 24 ГБ, освободить оперативку до 69 RAM ибо оно в конце пиканёт до 117 ГБ, и получить ускорение в 2 секунды (58 сек против 56 сек), хотя от доп 5 ГБ VRAM ожидаешь большего. На этих настройках удалось получить максимальное качество в fp16, 1024х1024, 24 fps.

Стоит ещё поиграться с ускорялками помимо TeaCache. Fast fp16 тут работает и ускоряет 1.3b 512x512 с 1,3 сек до 1 сек без потери качества. Подрубить Torch Compile, пишут 30% буст должен быть. Посмотреть на разницу в замене блоков VACE на RAM. И там ещё в опциях новый тип внимания Flex Attention, который стоит затестить.

Из проявившихся проблем:
* Если картинки заметно отличаются, то могут быть видны логические блоки внутри цельного видео.
* Движения персонажа могут занимать больше времени , чем они должны. Чтобы это нивелировать вероятно придётся играться с длительностью и фреймретом.

Кстати разные ракурсы с котом я сгенерил халявными кредитами в Kontext на сайте BFL, и пока я тестил этот воркфлоу вышел в опенсорс Kontext Dev. Время тестов!

Comfy воркфлоу
Дискорд
2025/06/30 04:53:24
Back to Top
HTML Embed Code: