This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Новая довольно убойная фича в Kling 1.6, которая называется Elements.
Если вы окончательно задолбались описывать оттаивающих оленей на фоне апрельской капели в санях деда мороза, то теперь вы можете сильно сэкономить себе букв в промптах: загружаете до 4 изображений, чтобы создать консистентных персонажей, окружение и другие объекты, не описывая их по отдельности.
Поглядите видео, все поймете.
Раскатывают в ранний доступ пока.
А я с интересом наблюдаю, как видеогенераторы изобретают все новые костыли, чтобы смириться с тем фактом, что описать происходящее на видео, это совсем не то же самое, что описать содержимое картинки. Все сложнее не на один порядок, а на многие порядки, о чем я уже неоднократно ворчал.
И вопрос в том, что будет через полгода, когда таких фич-костылей станет примерно 273. Как будем их запоминать?
Число 273 неслучайное - для одной из ранних версий Maya я когда-то писал простой mel-скрипт, который считал количество пунктов меню и подменю в Maya, получилось 273. А документация к Maya в 1999 году весила 16 килограмм - не шутка. Тогда еще книжки-мануалы печатали..
@cgevent
Если вы окончательно задолбались описывать оттаивающих оленей на фоне апрельской капели в санях деда мороза, то теперь вы можете сильно сэкономить себе букв в промптах: загружаете до 4 изображений, чтобы создать консистентных персонажей, окружение и другие объекты, не описывая их по отдельности.
Поглядите видео, все поймете.
Раскатывают в ранний доступ пока.
А я с интересом наблюдаю, как видеогенераторы изобретают все новые костыли, чтобы смириться с тем фактом, что описать происходящее на видео, это совсем не то же самое, что описать содержимое картинки. Все сложнее не на один порядок, а на многие порядки, о чем я уже неоднократно ворчал.
И вопрос в том, что будет через полгода, когда таких фич-костылей станет примерно 273. Как будем их запоминать?
Число 273 неслучайное - для одной из ранних версий Maya я когда-то писал простой mel-скрипт, который считал количество пунктов меню и подменю в Maya, получилось 273. А документация к Maya в 1999 году весила 16 килограмм - не шутка. Тогда еще книжки-мануалы печатали..
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Интересная работ от Адобченко по релайту именно портретов.
Примечательно то, что они насчитали большой синтетический датасет используя традиционный 3Д-рендер - просто отрендерили огромное количество 3Д-моделей головы с разным освещением и научили модель релайтить уже живые лица (и генератив тоже), так чтобы блики и все остальное перемещались и перекрашивались в соответствии с фоном.
Кода нет, поэтому ждем в бетах фотошопа.
Следующий вопрос: когда такое сделают для видео?
https://vrroom.github.io/synthlight/
@cgevent
Примечательно то, что они насчитали большой синтетический датасет используя традиционный 3Д-рендер - просто отрендерили огромное количество 3Д-моделей головы с разным освещением и научили модель релайтить уже живые лица (и генератив тоже), так чтобы блики и все остальное перемещались и перекрашивались в соответствии с фоном.
Кода нет, поэтому ждем в бетах фотошопа.
Следующий вопрос: когда такое сделают для видео?
https://vrroom.github.io/synthlight/
@cgevent
Еще немного рубрики крутые подписчики.
Мне нравятся такие эксперименты. В принципе это похоже на классическое кожаное обучение - берем чью-то работу в 3Д или в концепте и просто воспроизводим ее.
Тут еще интереснее, @Ambition_AI сделали с нуля копию существующего и снятого на камеру рекламного ролика с помощью видеогенерации. Хороший способ проверить, можно ли генерить рекламу с помощью ИИ и посчитать расходы.
За референс взяли ролик авиасейлс "самурай". По нему сгенерировали общую сцену (промпт по визуалу из оригинального ролика), затем с помощью ранвея и его контроля камеры достали второй ракурс, который подходит на шот из ролика. Апскейл во флюксе и магнифике, перегоны и связка редукс + филл позволили добиться аутентичности персонажа и чуть чуть уйти от "ИИшности" лица. Анимация шотов в Клинг 1.6.
Такие упражнения полезны тем, что ты вынужден решать задачу попадания в рамки тех задания, а не просто восторженно или угрюмо наблюдать, куда вывезет непредсказуемая креативность видеогенератора.
Те, кто смотрят сериалы с переводом, быстро узнАют ролик. Чтобы сэкономить вам время в поисках статистического попугая, намекну, что ИИ лихо скреативил маски, которые 4 года назад мы надевали в самолетах. Все помнит, засранец. А мы-то уже и забыли.
@cgevent
Мне нравятся такие эксперименты. В принципе это похоже на классическое кожаное обучение - берем чью-то работу в 3Д или в концепте и просто воспроизводим ее.
Тут еще интереснее, @Ambition_AI сделали с нуля копию существующего и снятого на камеру рекламного ролика с помощью видеогенерации. Хороший способ проверить, можно ли генерить рекламу с помощью ИИ и посчитать расходы.
За референс взяли ролик авиасейлс "самурай". По нему сгенерировали общую сцену (промпт по визуалу из оригинального ролика), затем с помощью ранвея и его контроля камеры достали второй ракурс, который подходит на шот из ролика. Апскейл во флюксе и магнифике, перегоны и связка редукс + филл позволили добиться аутентичности персонажа и чуть чуть уйти от "ИИшности" лица. Анимация шотов в Клинг 1.6.
Такие упражнения полезны тем, что ты вынужден решать задачу попадания в рамки тех задания, а не просто восторженно или угрюмо наблюдать, куда вывезет непредсказуемая креативность видеогенератора.
Те, кто смотрят сериалы с переводом, быстро узнАют ролик. Чтобы сэкономить вам время в поисках статистического попугая, намекну, что ИИ лихо скреативил маски, которые 4 года назад мы надевали в самолетах. Все помнит, засранец. А мы-то уже и забыли.
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Первые утечки с инаугурации Трампа.
Я редко пощщу такое, но уж больно ловко сделано. Монтаж решает. Плюс некоторые мемные шутки и тема с переобуванием Цукерберга. И веник в финале.
Ну и понимание того, что это фейк следует из контекста - Slaviс Balagan сделал клип Трампампам.
Но кто-то уберет юмор и музыку, заполирует качество и сможет тиражировать это как новую нормальную журналистику, где не важно, фейк это или нет, а важны охваты и вовлеченность.
А пока - танцуем, трампампам. Скрал тут.
https://www.youtube.com/watch?v=xeQqRwI3Xeg
@cgevent
Я редко пощщу такое, но уж больно ловко сделано. Монтаж решает. Плюс некоторые мемные шутки и тема с переобуванием Цукерберга. И веник в финале.
Ну и понимание того, что это фейк следует из контекста - Slaviс Balagan сделал клип Трампампам.
Но кто-то уберет юмор и музыку, заполирует качество и сможет тиражировать это как новую нормальную журналистику, где не важно, фейк это или нет, а важны охваты и вовлеченность.
А пока - танцуем, трампампам. Скрал тут.
https://www.youtube.com/watch?v=xeQqRwI3Xeg
@cgevent
Forwarded from Сиолошная
Paul Schrader, сценарист фильмов «Таксист» и «Бешеный бык» (за режиссёрством Martin «🖐😶🤚» Scorsese ), пишет в фейсбуке:
— Я только что осознал что AI умнее меня. У него лучше идеи, он предлагает более эффективные способы их осуществления. Это экзистенциальный момент, схожий с тем, как Kasparov чувствовал себя в 1997, когда понял, что DeepBlue обыграет его в шахматы
— (Что привело вас к этим мыслям?) Я спросил у ChatGPT идеи сценариев от Paul Schrader. Оно выдало результаты лучше, чем мои собственные идеи.
====
— Я только что отправил ChatGPT сценарий, написанный мной несколько лет назад, и спросил об улучшениях. Через 5 секунд я получил ответ с заметками на уровне или даже лучше, чем я получал от кинопродюсеров.
====
Фух, ну хорошо, что тут можно отмазаться, мол, сценарист слабенький, лишь номинировался на Оскар, а не выигрывал его, и что ему 78 лет, и он уже ничего не понимает😀
— Я только что осознал что AI умнее меня. У него лучше идеи, он предлагает более эффективные способы их осуществления. Это экзистенциальный момент, схожий с тем, как Kasparov чувствовал себя в 1997, когда понял, что DeepBlue обыграет его в шахматы
— (Что привело вас к этим мыслям?) Я спросил у ChatGPT идеи сценариев от Paul Schrader. Оно выдало результаты лучше, чем мои собственные идеи.
====
— Я только что отправил ChatGPT сценарий, написанный мной несколько лет назад, и спросил об улучшениях. Через 5 секунд я получил ответ с заметками на уровне или даже лучше, чем я получал от кинопродюсеров.
====
Фух, ну хорошо, что тут можно отмазаться, мол, сценарист слабенький, лишь номинировался на Оскар, а не выигрывал его, и что ему 78 лет, и он уже ничего не понимает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В пятницу я проводил на Хабе открытый брейнсторм на тему ИИ + Юмор.
При участии одного из создателей AI Meme Arena, Вовы Закоулова. Получилась целая миниконференция, человек так на семьдесят пять: огненное выступление, мощный брейнсторминг по поводу нейросетевых архитектур, подходящих для генерации юмора, коллективный взлом chatGPT на предмет понимания и непонимания шуток и даже дискуссия про образование. А еще мы узнали, что смех - это лубрикант.
Отдельного упоминания заслуживает история про научение chatGPT чувству юмора. Аудитория честно пыталась добиться трактовки известнейшего her-мема про Скарлет Йохансон и озвучку голосового режима chatGPT.
В то время как сидевший в первом ряду Юра Александров быстро написал промпт для новой модели o1, где обозначил схожесть английского местоимения и русского места имения.
После чего chatGPT выдал шутку "когда американец сказал *I love her*, русскоязычные студенты подумали, "какой внезапный каминг-аут". Далее были шутки про ask her и все, что было на Хабе, осталось на Хабе.
Можете сами попробовать вот такой промпт:
Все преступно пропустившие Хаб промпт-инженеры, которым тоже не нравится тугоумие ИИ могут попробовать свои силы через https://aimemearena.vercel.app/challenge
Похоже, что точечным промптингом или RLHF с объяснением шуток, можно загнать ИИ в Meme-Mode.
Вот шутачки от o1, который chatGPT мне только что любезно выдал:
– Пишу предложение: «I love her».
– Русский читает: «Я люблю хер».
– Отличная причина дважды подумать, прежде чем рисовать сердечки на открытках!
В учебнике английского: «Не забудьте поставить апостроф в фразе “That’s her bag”».
Русский читатель: «А мне казалось, там и без апострофа всё ясно…»
На уроке английского:
– «Это её книга» по-русски будет «Это книга her»…
– Всё, у меня новый девиз: «Чем короче, тем смешнее!»
- I need some help with the price. Ask her! (показывает на кассиршу)
Русский (про себя):
- Ну да, «хер» спроси… Не знаю, поможет ли это с ценой, но звучит знатно!
@cgevent
При участии одного из создателей AI Meme Arena, Вовы Закоулова. Получилась целая миниконференция, человек так на семьдесят пять: огненное выступление, мощный брейнсторминг по поводу нейросетевых архитектур, подходящих для генерации юмора, коллективный взлом chatGPT на предмет понимания и непонимания шуток и даже дискуссия про образование. А еще мы узнали, что смех - это лубрикант.
Отдельного упоминания заслуживает история про научение chatGPT чувству юмора. Аудитория честно пыталась добиться трактовки известнейшего her-мема про Скарлет Йохансон и озвучку голосового режима chatGPT.
В то время как сидевший в первом ряду Юра Александров быстро написал промпт для новой модели o1, где обозначил схожесть английского местоимения и русского места имения.
После чего chatGPT выдал шутку "когда американец сказал *I love her*, русскоязычные студенты подумали, "какой внезапный каминг-аут". Далее были шутки про ask her и все, что было на Хабе, осталось на Хабе.
Можете сами попробовать вот такой промпт:
слово "хер" на русском звучит также, как слово "her" на Английском. Придумай 10 шуток обыграв это.
Все преступно пропустившие Хаб промпт-инженеры, которым тоже не нравится тугоумие ИИ могут попробовать свои силы через https://aimemearena.vercel.app/challenge
Похоже, что точечным промптингом или RLHF с объяснением шуток, можно загнать ИИ в Meme-Mode.
Вот шутачки от o1, который chatGPT мне только что любезно выдал:
– Пишу предложение: «I love her».
– Русский читает: «Я люблю хер».
– Отличная причина дважды подумать, прежде чем рисовать сердечки на открытках!
В учебнике английского: «Не забудьте поставить апостроф в фразе “That’s her bag”».
Русский читатель: «А мне казалось, там и без апострофа всё ясно…»
На уроке английского:
– «Это её книга» по-русски будет «Это книга her»…
– Всё, у меня новый девиз: «Чем короче, тем смешнее!»
- I need some help with the price. Ask her! (показывает на кассиршу)
Русский (про себя):
- Ну да, «хер» спроси… Не знаю, поможет ли это с ценой, но звучит знатно!
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Хуньянь точно становится Stable Diffusion Moment для видео.
Нашел вот таких интересных ребят: https://kartel.ai/
Поглядите, что они делают, это познавательно. Но тема поста в том, как они тренировали Хуньян Лору на конкретного персонажа (на своих видео).
Подробности:
Заняло около 15 часов обучения на A100 GPU
На входе было 50 видео.
Каждое видео - 2 секунды (50 frames), 448 px height by 576 width .
Всего 20 эпох, можно подождать до 100, качество (возможно) вырастет.
Для тренировки использовалась это: https://github.com/tdrussell/diffusion-pipe/blob/main/examples/dataset.toml
For now only text 2 video, but next step is video to video with a real moving character cutting across different scene , using a volumetric capture.
@cgevent
Нашел вот таких интересных ребят: https://kartel.ai/
Поглядите, что они делают, это познавательно. Но тема поста в том, как они тренировали Хуньян Лору на конкретного персонажа (на своих видео).
Подробности:
Заняло около 15 часов обучения на A100 GPU
На входе было 50 видео.
Каждое видео - 2 секунды (50 frames), 448 px height by 576 width .
Всего 20 эпох, можно подождать до 100, качество (возможно) вырастет.
Для тренировки использовалась это: https://github.com/tdrussell/diffusion-pipe/blob/main/examples/dataset.toml
For now only text 2 video, but next step is video to video with a real moving character cutting across different scene , using a volumetric capture.
@cgevent
Латентные дипфейки
Если вы зайдете на https://civitai.com/models/ и в фильтрах укажете Lora и Hunuyan, то пеняйте на себя. Это точно Stable Diffusion Moment. А что будет, когда в него завезут image2video?!
А я пока вам принес ВИДЕО ЛОРУ НА ДЖОНА УИКА.
Да, видео селебов тоже начали тренить для Хуньяня.
И у нас получается этакий латентный дипфейк, который отлично работает.
Гляньте как народ переделывает сериал Severance заменяя главного актера на Кину Ривза.
Подробности можете подглядеть вот тут
@cgevent
Если вы зайдете на https://civitai.com/models/ и в фильтрах укажете Lora и Hunuyan, то пеняйте на себя. Это точно Stable Diffusion Moment. А что будет, когда в него завезут image2video?!
А я пока вам принес ВИДЕО ЛОРУ НА ДЖОНА УИКА.
Да, видео селебов тоже начали тренить для Хуньяня.
И у нас получается этакий латентный дипфейк, который отлично работает.
Гляньте как народ переделывает сериал Severance заменяя главного актера на Кину Ривза.
Подробности можете подглядеть вот тут
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Kling Elements мне определенно нравятся.
Хотя бы тем, что можно выпить за Reels
Очень крутой автор.
@cgevent
Хотя бы тем, что можно выпить за Reels
Очень крутой автор.
@cgevent