Telegram Web
Интересная история с Kinetix, который вдруг приподвзвирусился в телеге.

Они начинали еще в 2022 году как AI-assisted 3D animation platform под знаменами Метаверса и NFT.

В прошлом году они делали довольно кринжовый AI Emote Creator(на втором видео), где юзеры генерили вот эти вот все .. жесты.

Но в сентябре Kinetix объявила о создании фонда в размере $1 млн для поддержки разработчиков игр, сочетающих генеративный искусственный интеллект и пользовательский контент.

А в январе пивотнулись в довольно банальный Video2Video генератор - описываете сцену промптом, а движения персонажа берутся из видео, которое вы загрузите дополнительно.
Главная фишка - video2video берется именно с персонажа.
У них также есть огромный датасет из мокапных движений, что, по идее, позволяет им "допиливать" движения до годного.
По идее им надо вводить стили на движения и управление весами этих стилей.

Поглядим, когда из беты выйдут.
https://www.kinetix.tech/character-motion-control-for-video-generation-models


@cgevent
Кому-то может быть полезно - бесплатный курс по AI AGENTS от HuggingFace.

https://huggingface.us17.list-manage.com/subscribe?u=7f57e683fa28b51bfc493d048&id=9ed45a3ef6

@cgevent
Вчера постил про @AIMemeArenaBot.

Подписчики не подвели, держите пачку ИИ-мемов.

Более того, я связался с автором безобразия и завтра мы устроим эпический баттл в реальном времени на Хабе в Пафосе.

Кто на Кипре, заходите, вот уже где скучно не будет!
https://www.tgoop.com/hub_cy/2029

@cgevent
Вот вам пример видеогенерации, от которого у меня немного закипел мозг.

Мы тут извращаемся в промптах, пытаясь заставить двигаться камеру или персонажа.
Но.
Оказывается, можно попросить ИИ добавить на видео гринскрин (этим я вас не удивлю) и, внимание, маркеры для трекинга камеры (а вот этим удивлю). Для того, чтобы потом оттрекать камеру в AE или Нюке, восстановить движение объектов в 3Д, убрать фон и навалить сверху нормальной графики или футажа.
В общем все, как на съемках с парой супервазеров, мешком маркеров, тейпов, рулеток, далее по списку. Только промптом!

И судя по этому примеру у Veo2 (пока крайней мере у него, но думаю и у остальных) в голове есть реальная модель 3Д мира и вполне себе эвклидово пространство, ибо это работает и условная фотограмметрия не ломается.

Я в шоке. А вы не поленитесь, почитайте нехилый такой промпт, где написано про маркеры, гринскрин и прочую супервайзерскую требуху (тут есть момент, чтобы писать такой промпт, надо как бы быть в супервайзерской теме, но об этом в другой раз).

Я уж не знаю, на чему учили Veo2, но то, что это вообще работает, приводит меня в восторг.

Подробности тут.

Кто совсем ничего не понял: здесь только девушка (см. промпт). Среднее видео демонстрирует добавление созданной человеком модели (андроид, G) в сцену, созданную ИИ, а нижнее - объединение созданного ИИ персонажа (девушки) в созданную человеком сцену (сакура и небесное пространство). В обоих случаях необходимы данные с камеры, полученные в результате работы ИИ.

Попробуйте в Клинге что ли...

@cgevent
Forwarded from ЭйАйЛера
Генерация своих миров и скан уже сложившихся

На этой неделе вышло множество обновлений в софтах, направленных на интеграцию сплатов и более качественную генерацию 3D, что в будущем позволит быстро, дешево и просто создавать свои миры. Сделала подборку с подробными статьями и примерами коллег.

👽Итак, irrealix выпустили обновление для Nuke для работы со сплатами с множеством полезных фишек. Например, поддержка .ply из Luma, Polycam, Postshot, Nerfstudio, и Scaniverse. , цветокоррекция, поддержка до 10 сплатов в сцене. О них подробнее читать в посте. Что можно с этим делать? Например, снимать на зеленом экране и после помещать в сгенерированную обстановку и еще и красить.

🐱Креа добавили на сайт реалтайм генерацию 3D. Сайт тормозит от такого наплыва желающих, даже в платной версии. Но Женя Шабунина уже протестировала инструмент на классном примере, смотреть можно у нее на канале. Конечно, это пока не отменяет работу с 3D-программах, но это пока.

👽А еще и Метаверсище и ИИще написал понятный пост о том, как можно сгенерировать видео не только с гринскрином, но и с треккинговыми точками. После загрузить в AF или Nuke и дальше работать с фонами и графикой как хочется.

Во что превратиться продакшн в ближайшие полгода? Какими будут ролики в конце года? И дадут ли новые технические возможности новые смыслы?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Нашел развлечение на выходные для любителей пазлов — ВИДЕО-пазлы.

Попробовал собрать пару штук — вполне залипательно. И как по мне, сильно сложнее, ибо оно все двигается и поначалу мозг начинает плыть от этого.

Что-то мне подсказывает, что через несколько лет у нас будут такие капчи.

Попробовать можно тут.
2025/02/01 19:31:45
Back to Top
HTML Embed Code: