Forwarded from BLACKTRACED (Sergey Kozlov)
Ур Торум: Дизайн персонажей
Этап обсуждения дизайна персонажей у нас начался чуть раньше общего визуала (о котором я расскажу в следующей части). Изначально у Дмитрия были мысли снова сделать аниме, так как после предыдущего проекта у нас была рабочая формула, но обсудив это, мы оба пришли к выводу, что аниме в контексте нынешнего проекта не подойдет. Причём, основным инструментом для разработки визуала была уже не Niji V5, как на предыдущем проекте, а MJ V6, со своим пониманием промптов и иным результатом, поэтому старый метод не гарантировал успеха сейчас.
Я предложил держать курс в сторону «нарисованного кино», персонажи должны быть в стиле европейской анимации и выглядеть достаточно натурально, чтобы гармонировать с серьёзным и мрачным тоном произведения, чтобы при просмотре возникало ощущение, будто это в первую очередь некий анимационный фильм, а не мультик.
Чтобы добиться нужного результата, у меня был такой подход: сперва я генерировал фотореалистичные кинематографические стиллшоты, а затем использовал их как референс для их трансформации в анимационный стиль, имея возможность контролировать степень реализма в дизайне персонажей.
Первые тесты получились неплохими, я более ли менее слепил ключевой стиль, который можно было вшивать в промпты для генерации других героев. Из этих технических тестовых изображений Дима собрал мини-тизер, чтобы мы смогли оценить, как шоты смотрятся вместе, заодно показать клиенту и студии анимации, в каком направлении мы собрались двигаться. Но нужно было учитывать два важных момента — рандом нейросетей и смогут ли в таком стиле работать аниматоры, в обозначенных временных рамках.
Казалось бы, формула найдена, но тут, конечно же, палки в колёса начал вставлять рандом. Персонажи получались то слишком уродскими, то слишком реалистичными, то MJ просто не попадал в заданный стиль и эстетику, делая нечто иное. Посоветовавшись с Дмитрием, мы приняли решение упрощать визуал в более "мультяшную" эстетику. Во-первых, простой дизайн будет возможность поправить руками, а во-вторых, всё равно нужно было адаптировать стиль для комфортной работы аниматоров.
Упростили. Когда MJ плюс-минус начал поддаваться, мы сгенерировали персонажей для всех сцен, примерно замэтчив их по стилю, и далее руками пришлось доделывать почти всё. Тут сыграло ещё важную роль то, что большинство персонажей были всего на пару сцен. А вот с главным героем пришлось повозиться. По итогу получилось так, что мы сгенерировали эталон главного героя, использовали его для генерации примерно похожего на себя во всех сценах персонажа и затем снова руками я его дорабатывал, с фиксами по одежде и тд, и затем уже такой готовый вариант передавался аниматорам. В этом плане было, конечно, достаточно много ручной работы. Не говоря уже о том, что для каждой сцены уходило чуть ли не под сотню попыток, чтобы получить даже не идеальный результат.
В прикреплённых к посту изображениях, Вы можете посмотреть первые тесты, сырые генерации и сравнение с финальным результатом.
#AI #Midjourney #нейросети #анимация
😳 @BLACKTRACED
Этап обсуждения дизайна персонажей у нас начался чуть раньше общего визуала (о котором я расскажу в следующей части). Изначально у Дмитрия были мысли снова сделать аниме, так как после предыдущего проекта у нас была рабочая формула, но обсудив это, мы оба пришли к выводу, что аниме в контексте нынешнего проекта не подойдет. Причём, основным инструментом для разработки визуала была уже не Niji V5, как на предыдущем проекте, а MJ V6, со своим пониманием промптов и иным результатом, поэтому старый метод не гарантировал успеха сейчас.
Я предложил держать курс в сторону «нарисованного кино», персонажи должны быть в стиле европейской анимации и выглядеть достаточно натурально, чтобы гармонировать с серьёзным и мрачным тоном произведения, чтобы при просмотре возникало ощущение, будто это в первую очередь некий анимационный фильм, а не мультик.
Чтобы добиться нужного результата, у меня был такой подход: сперва я генерировал фотореалистичные кинематографические стиллшоты, а затем использовал их как референс для их трансформации в анимационный стиль, имея возможность контролировать степень реализма в дизайне персонажей.
Первые тесты получились неплохими, я более ли менее слепил ключевой стиль, который можно было вшивать в промпты для генерации других героев. Из этих технических тестовых изображений Дима собрал мини-тизер, чтобы мы смогли оценить, как шоты смотрятся вместе, заодно показать клиенту и студии анимации, в каком направлении мы собрались двигаться. Но нужно было учитывать два важных момента — рандом нейросетей и смогут ли в таком стиле работать аниматоры, в обозначенных временных рамках.
Казалось бы, формула найдена, но тут, конечно же, палки в колёса начал вставлять рандом. Персонажи получались то слишком уродскими, то слишком реалистичными, то MJ просто не попадал в заданный стиль и эстетику, делая нечто иное. Посоветовавшись с Дмитрием, мы приняли решение упрощать визуал в более "мультяшную" эстетику. Во-первых, простой дизайн будет возможность поправить руками, а во-вторых, всё равно нужно было адаптировать стиль для комфортной работы аниматоров.
Упростили. Когда MJ плюс-минус начал поддаваться, мы сгенерировали персонажей для всех сцен, примерно замэтчив их по стилю, и далее руками пришлось доделывать почти всё. Тут сыграло ещё важную роль то, что большинство персонажей были всего на пару сцен. А вот с главным героем пришлось повозиться. По итогу получилось так, что мы сгенерировали эталон главного героя, использовали его для генерации примерно похожего на себя во всех сценах персонажа и затем снова руками я его дорабатывал, с фиксами по одежде и тд, и затем уже такой готовый вариант передавался аниматорам. В этом плане было, конечно, достаточно много ручной работы. Не говоря уже о том, что для каждой сцены уходило чуть ли не под сотню попыток, чтобы получить даже не идеальный результат.
В прикреплённых к посту изображениях, Вы можете посмотреть первые тесты, сырые генерации и сравнение с финальным результатом.
#AI #Midjourney #нейросети #анимация
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ур Торум: Предпродакшн
Одним из главных плюсов нейросетей - это быстрый тест своих идей. Почти всегда на первых этапах работы над проектами, то что у тебя в голове часто не работает на практике. А также цена ошибки не так велика. Ведь когда задуманное одним человеком должно превратиться в труд множества людей, то и ответственность другая.
Ну и в конце концов это возможность дать своему внутреннему ребенку художнику увидеть первые плоды творчества и порадоваться, как классно всё будет. Увидев первые подходящие тестовые изображения, я не удержался и склеил их в один небольшой муд ролик. Ощущение что мы идем правильным путем усилилось.
Также это производит один интересный эффект. Одним из начальных этапов производства роликов является бордоматик. Это монтаж статичных картинок раскадровки, которые показывают как складывается история во времени и каком темпо-ритме. А уже потом или делается продвинутый анимированный черновик в виде аниматика или сразу чистовая съемка. Но здесь эти границы стираются. Те арты что сгенерированы для бордоматика, после утверждения сразу берутся в работу, чистятся от артефактов и анимируются в финальный вариант.
Ниже вы можете увидеть тестовую сборку, в которой можно заметить первоначальный образ монстра, который изменился в процессе.
Одним из главных плюсов нейросетей - это быстрый тест своих идей. Почти всегда на первых этапах работы над проектами, то что у тебя в голове часто не работает на практике. А также цена ошибки не так велика. Ведь когда задуманное одним человеком должно превратиться в труд множества людей, то и ответственность другая.
Ну и в конце концов это возможность дать своему внутреннему ребенку художнику увидеть первые плоды творчества и порадоваться, как классно всё будет. Увидев первые подходящие тестовые изображения, я не удержался и склеил их в один небольшой муд ролик. Ощущение что мы идем правильным путем усилилось.
Также это производит один интересный эффект. Одним из начальных этапов производства роликов является бордоматик. Это монтаж статичных картинок раскадровки, которые показывают как складывается история во времени и каком темпо-ритме. А уже потом или делается продвинутый анимированный черновик в виде аниматика или сразу чистовая съемка. Но здесь эти границы стираются. Те арты что сгенерированы для бордоматика, после утверждения сразу берутся в работу, чистятся от артефактов и анимируются в финальный вариант.
Ниже вы можете увидеть тестовую сборку, в которой можно заметить первоначальный образ монстра, который изменился в процессе.
Forwarded from BLACKTRACED (Sergey Kozlov)
This media is not supported in your browser
VIEW IN TELEGRAM
Ур Торум: Дизайн локаций
С дизайном локаций было попроще. Хоть мы и не собирались делать аниме, но именно то, как реалистично нарисованы фоны в полнометражных аниме, нам было нужно.
У нас в ролике преимущественно лес, если с интерьерами всё было более ли менее понятно (интерьеры, кстати, делались по той же технике, что и персонажи), то с лесом должно было быть какое-то иное решение. Потому что деревья у Midjourney в контексте густого леса — это всегда кошмар, они слепляются друг с другом или странно «врастают» одно в другое, всё в таком духе. Плюс, одна из странных и непонятных мне обязательных фишек у MJ при генерации леса — почти всегда присутствует туман или густой дым, который приходится убирать.
Решение по визуалу пришло само собой, когда Дима показал мне первые черновые генерации монстра в лесу. На них лес был нарисован нейронкой так, что заснеженная земля была детализированной и объёмной, а деревья и всякие торчащие палочки-веточки были просто силуэтами практически без какой-либо детализации. Я предложил, что вот именно таким мы должны делать лес. В моём понимании, эти чёрные силуэты деревьев больше вызывали ощущение, что это мистический и жуткий лес, в котором обитает нечто жуткое. В итоге, эту черновую генерацию взяли как Style Reference для всех сцен с лесом.
У меня сразу появилось несколько идей, как можно манипулировать изображениями с таким упрощённым визуалом, чтобы при этом мы не жертвовали киношностью и сцены не выглядели плоскими. В прикреплённом видео Вы можете посмотреть одни из сделанных мною сцен в лесу. Благодаря таким простым формам, я создавал фейковую глубину кадра, делая параллаксы и искажения.
Если немного глубже копнуть в процесс, возьмём, к примеру, ту сцену, где камера плывет за ведьмой над деревьями: я сделал кучу вариаций одной генерации, из кусков которых потом руками лепил финальную сцену, заодно оставляя элементы сцены на отдельных слоях, чтобы их анимировать. Сама анимация в этой сцене — это обычное движение слоев вниз + стандартный инструмент Mesh Warp в AE. Как итог, передать ощущение того, будто мы правда продвигаемся куда-то вглубь кадра, думаю, у меня получилось.
Если Вам интересно узнать подробнее, как делались другие сцены, спрашивайте в комментариях. Свои заключительные мысли о создании ролика и о работе с нейронками для создания подобных проектов, я напишу в следующей части.
#AI #Midjourney #нейросети #анимация
😳 @BLACKTRACED
С дизайном локаций было попроще. Хоть мы и не собирались делать аниме, но именно то, как реалистично нарисованы фоны в полнометражных аниме, нам было нужно.
У нас в ролике преимущественно лес, если с интерьерами всё было более ли менее понятно (интерьеры, кстати, делались по той же технике, что и персонажи), то с лесом должно было быть какое-то иное решение. Потому что деревья у Midjourney в контексте густого леса — это всегда кошмар, они слепляются друг с другом или странно «врастают» одно в другое, всё в таком духе. Плюс, одна из странных и непонятных мне обязательных фишек у MJ при генерации леса — почти всегда присутствует туман или густой дым, который приходится убирать.
Решение по визуалу пришло само собой, когда Дима показал мне первые черновые генерации монстра в лесу. На них лес был нарисован нейронкой так, что заснеженная земля была детализированной и объёмной, а деревья и всякие торчащие палочки-веточки были просто силуэтами практически без какой-либо детализации. Я предложил, что вот именно таким мы должны делать лес. В моём понимании, эти чёрные силуэты деревьев больше вызывали ощущение, что это мистический и жуткий лес, в котором обитает нечто жуткое. В итоге, эту черновую генерацию взяли как Style Reference для всех сцен с лесом.
У меня сразу появилось несколько идей, как можно манипулировать изображениями с таким упрощённым визуалом, чтобы при этом мы не жертвовали киношностью и сцены не выглядели плоскими. В прикреплённом видео Вы можете посмотреть одни из сделанных мною сцен в лесу. Благодаря таким простым формам, я создавал фейковую глубину кадра, делая параллаксы и искажения.
Если немного глубже копнуть в процесс, возьмём, к примеру, ту сцену, где камера плывет за ведьмой над деревьями: я сделал кучу вариаций одной генерации, из кусков которых потом руками лепил финальную сцену, заодно оставляя элементы сцены на отдельных слоях, чтобы их анимировать. Сама анимация в этой сцене — это обычное движение слоев вниз + стандартный инструмент Mesh Warp в AE. Как итог, передать ощущение того, будто мы правда продвигаемся куда-то вглубь кадра, думаю, у меня получилось.
Если Вам интересно узнать подробнее, как делались другие сцены, спрашивайте в комментариях. Свои заключительные мысли о создании ролика и о работе с нейронками для создания подобных проектов, я напишу в следующей части.
#AI #Midjourney #нейросети #анимация
Please open Telegram to view this post
VIEW IN TELEGRAM
Ур Торум: Ai анимация
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
Те кто работает в индустрии производства разного рода творческого контента, знают как важна гибкость.
Множество факторов способны повлиять на процесс. Несвоевременные правки,смена настроений заказчиков, резкое сокращение бюджетов или времени на производство. И очень часто это губительно влияет на итоговый результат. Самым ярким примером в последние годы является деградация качества компьютерной графики в голливудских блокбастерах.
Для меня эта самая гибкость обрела новое значение при работе над проектами с использованием нейросетей.
Еще во время работы над клипом для группы Pain, некоторые кадры, были отложены на конец производства из-за отсутствия понимания как их сделать. И только после выхода новых ИИ инструментов, всё получилось.
Ур Торум не стал исключением. В начале лета мне пришло письмо от компании Luma Labs с приглашением на недельный закрытый бета тест их новой нейронки Dream Machine. А позже и вовсе дали доступ на год к премимум аккаунту.
Мы начали тестить и оказалось, что эта модель очень даже хорошо может анимировать составные части наших сцен. Так практически весь огонь, свечи, вороны на ветке и главный герой в паре сцен ожили в кратчайшие сроки.
А наш по большей части моушн комикс ролик, стал еще больше походить на анимационное кино.
Отдельного упоминания стоит сцена бега героя на крупном и общем плане.
Если с тем что 2D аниматоры из студии Blaster должны были анимировать персонажей с более точными движениями было всё ясно, то как быть с окружением если оно должно двигаться? Я пробовал собрать 3Д сцену леса из слоев в After Effects. Выглядело на превизе это мягко говоря так себе. Вот тут мне и пришла идея закинуть арт в Luma. И это была фееричная мазня!
Но первые пару секунд показали, что этот кадр может быть крутым и динамичным с ручной камерой! 2D аниматор начала рисовать персонажа по этому рефу а я закинул в Luma фон и написалпромт: pov оператор с ручной камерой бежит по лесу. Результат буквально с первых попыток получился хорошим. Но как органично вписать туда героя, анимация которого нарисованна в ручную? По заветам старого доброго Эндрю Крамера( те кто по старше знают его как гуру визуальных эффектов из подручных средств на домашнем компьютере с After Effects) я прилепил на стену бумажку с маркером движения и отснял видео на телефон имитируя тряску камеры при беге. После этого перенес движение камеры телефона на виртуальную камеру в сцену с бегом а персонажа и фон превратил в два 3Д слоя. Добавим размытия при движении и наша сцена готова!
Видео с кадрами в которых нам помогла Luma , а также разбор сцены бега вы можете увидеть выше.
И так как это последний пост о создании проекта "Ур Торум", в завершении хотелось бы сказать. Нейросети не изменят сами индустрию и вашу жизнь! Но вы можете изменить их используя нейросети!
Media is too big
VIEW IN TELEGRAM
Динамика в Ai видео: замедленная мазня или рваное безумие?
Нейросети для создания видео из текста достигли больших успехов, но всё ещё есть несколько проблем. Одной из них является передача динамичных движений. В сценах, где объекты должны двигаться быстро, видео часто либо получается слишком плавным и замедленным, либо наоборот — рвано-дерганным. Это делает движение неестественным, и ощущение «живой» сцены теряется. Также возникают проблемы с мелкими деталями, особенно в сложных сценах с множеством движущихся объектов.
Однако с новой моделью Ray2 от Luma заметно улучшилась динамика. Движения стали более натуральными, а алгоритм научился лучше справляться с быстрыми объектами. Хотя до идеала ещё далеко, результаты уже впечатляют, и технология становится всё более близка к реальной съёмке.
При создании данного видео было сгенерировано 708 шотов. Отобрано 97 удачных. 37 вошли в финальный монтаж.
Нейросети для создания видео из текста достигли больших успехов, но всё ещё есть несколько проблем. Одной из них является передача динамичных движений. В сценах, где объекты должны двигаться быстро, видео часто либо получается слишком плавным и замедленным, либо наоборот — рвано-дерганным. Это делает движение неестественным, и ощущение «живой» сцены теряется. Также возникают проблемы с мелкими деталями, особенно в сложных сценах с множеством движущихся объектов.
Однако с новой моделью Ray2 от Luma заметно улучшилась динамика. Движения стали более натуральными, а алгоритм научился лучше справляться с быстрыми объектами. Хотя до идеала ещё далеко, результаты уже впечатляют, и технология становится всё более близка к реальной съёмке.
При создании данного видео было сгенерировано 708 шотов. Отобрано 97 удачных. 37 вошли в финальный монтаж.
Media is too big
VIEW IN TELEGRAM
Мультики сделанные на нейросетях уже в кино!
Совершенно чудесная новость сейчас разлетается по каналам и новостным сайтам. В Белоруси вышел в кино первый в мире анимационный фильм, сделанный при помощи нейросетей. Это революция? Прорыв? Классическая индустрия всё?
Я думаю, что это в первую очередь очень интересный прецедент. Потому что судя по трейлеру, это мультик сделанный на каких нибудь Flux и Kling в стилистике мультфильмов Pixar, коих полно делают коллеги для рекламных целей или в виде коротких метров. (Потому что порой даже 5 минут такого сложно смотреть)
Но почему только сейчас произошла эта революционная премьера ? Здесь не пахнет каким то революционным производством. Да, потому что эта история не связанна с прорывом технологий. Здесь правит бал человеческий фактор, который всегда двигал прогресс в самые неожиданные сюжетные повороты.
И тут просто сошлись все звёзды для такой инновационной премьеры! Инфоповод о первом сгенерированном мультфильме в кино. Маленькие зрители не так требовательны. Основные атрибуты жанра в виде ярких милых персонажей на месте! А то, что родители жалуются на «вытекающие глаза» от анимации и "честкости" некоторых шотов это не важно. Не для них же делается! Ну а цена билета как на обычный мультик от тех же Pixar, ну что поделать, такова жизнь и законы рынка.
На самом деле меня восхищает, то с каким энтузиазмом студия ворвалась на вершину пионеров ( или же первонахов?) генеративного контента для кинотеатров. Но как в моем любимом анекдоте: есть один нюанс.
Они буквально зажгли гигантский маяк для множество талантливых продюсеров, которые готовы жертвовать качеством ради скорости и количества. И думаю нам стоит ждать целый вал подобных проектов. Но та ли эта революция в производстве кино и мультиков, которую мы так ждем?
Совершенно чудесная новость сейчас разлетается по каналам и новостным сайтам. В Белоруси вышел в кино первый в мире анимационный фильм, сделанный при помощи нейросетей. Это революция? Прорыв? Классическая индустрия всё?
Я думаю, что это в первую очередь очень интересный прецедент. Потому что судя по трейлеру, это мультик сделанный на каких нибудь Flux и Kling в стилистике мультфильмов Pixar, коих полно делают коллеги для рекламных целей или в виде коротких метров. (Потому что порой даже 5 минут такого сложно смотреть)
Но почему только сейчас произошла эта революционная премьера ? Здесь не пахнет каким то революционным производством. Да, потому что эта история не связанна с прорывом технологий. Здесь правит бал человеческий фактор, который всегда двигал прогресс в самые неожиданные сюжетные повороты.
И тут просто сошлись все звёзды для такой инновационной премьеры! Инфоповод о первом сгенерированном мультфильме в кино. Маленькие зрители не так требовательны. Основные атрибуты жанра в виде ярких милых персонажей на месте! А то, что родители жалуются на «вытекающие глаза» от анимации и "честкости" некоторых шотов это не важно. Не для них же делается! Ну а цена билета как на обычный мультик от тех же Pixar, ну что поделать, такова жизнь и законы рынка.
На самом деле меня восхищает, то с каким энтузиазмом студия ворвалась на вершину пионеров ( или же первонахов?) генеративного контента для кинотеатров. Но как в моем любимом анекдоте: есть один нюанс.
Они буквально зажгли гигантский маяк для множество талантливых продюсеров, которые готовы жертвовать качеством ради скорости и количества. И думаю нам стоит ждать целый вал подобных проектов. Но та ли эта революция в производстве кино и мультиков, которую мы так ждем?
Please open Telegram to view this post
VIEW IN TELEGRAM
2D анимация и нейросети.
Среди однотипных нейросетевых роликов, редко но встречаются алмазы. И короткометражный фильм "Migration" режиссера Джереми Хиггинса, созданный в рамках поддержки авторов Runway Studios, как раз такой пример.
Несмотря на визуальный минимализм, получился очень даже приятный и атмосферный мультик. Покадрово нарисованные персонажи и элементы кадра, удачно сплелись с генеративными инопланетными фонами в органичный и красивый визуал под стильный саундтрек.
В посте помимо самого фильма прикрепил ролик о создании фильма, озвученный "нейро-переводом" от Яндекс Браузера.
За находку отдельное спасибо подписчице! Так что делитесь в комментах крутыми кейсами, как своими так и чужими)
Среди однотипных нейросетевых роликов, редко но встречаются алмазы. И короткометражный фильм "Migration" режиссера Джереми Хиггинса, созданный в рамках поддержки авторов Runway Studios, как раз такой пример.
Несмотря на визуальный минимализм, получился очень даже приятный и атмосферный мультик. Покадрово нарисованные персонажи и элементы кадра, удачно сплелись с генеративными инопланетными фонами в органичный и красивый визуал под стильный саундтрек.
В посте помимо самого фильма прикрепил ролик о создании фильма, озвученный "нейро-переводом" от Яндекс Браузера.
За находку отдельное спасибо подписчице! Так что делитесь в комментах крутыми кейсами, как своими так и чужими)
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети в рекламе Секретной службы США
от режиссера фильмов "Скала" и "Трансформеры"
Вчера, неожиданно для всех в нельзяграм аккаунте Майкла Бэя появился пост с его новым рекламным роликом Секретной службы США для Суперкубка. Помимо того, что эта реклама продолжает курс нового президента Америки на возвращение простых мужицких ценностей, но и показывает тягу известного режиссера к передовым технологиям. В ряде исторических кадров вместе с реальной хроникой были замечены кадры сгенерированные при помощи нейросетей.
Осознаем момент. Еще вчера со всех сторон "кричали" про этичность использования ИИ , а сегодня легендарный голливудский кинорежиссер использует нейронки для ролика спецслужб США. Окно Овертона становится шире.
от режиссера фильмов "Скала" и "Трансформеры"
Вчера, неожиданно для всех в нельзяграм аккаунте Майкла Бэя появился пост с его новым рекламным роликом Секретной службы США для Суперкубка. Помимо того, что эта реклама продолжает курс нового президента Америки на возвращение простых мужицких ценностей, но и показывает тягу известного режиссера к передовым технологиям. В ряде исторических кадров вместе с реальной хроникой были замечены кадры сгенерированные при помощи нейросетей.
Осознаем момент. Еще вчера со всех сторон "кричали" про этичность использования ИИ , а сегодня легендарный голливудский кинорежиссер использует нейронки для ролика спецслужб США. Окно Овертона становится шире.
Media is too big
VIEW IN TELEGRAM
Фейковая реклама Porsche - как новый виток рекламного рынка.
Пока все хвалят новую видео модель Veo2 от Google, которая пока доступна очень ограниченному кругу лиц, произошла очень классная история.
Ai filmmaker по имени Ласло Гаал, оказавшись в кругу избранных с ранним доступом к Veo2, сделал очень мудрый шаг. Он сделал спек рекламу для существующего бренда автомобилей Porsche.
Для тех кто не связан с медиа индустрией поясню. Спек (spec) - это рекламный ролик, сделанный не по заказу. И если вы начинающий режиссер или оператор, чтобы доказать свою состоятельность в этом ремесле, вам нужно сначала показать ваши таланты сразу на деле, но взяв на себя все риски и расходы на производство. И эти "творческие" рекламные проекты и станут началом вашего портфолио, по которому вас будут выбирать ваши будущие клиенты.
Вернемся же к нашему талантливому другу Ласло. Который взял новый уровень качества и динамику Veo2 и завернул все это в ироничную историю итальянской семьи, связал это ненавязчиво с автомобилями Porsche, превратив всё в ролик в эстетике пленочной европейской рекламы. Пристегнув к этому до кучи, реалистично сгенерированные кадры бекстейджа !!!(кадров с якобы съемочной площадки). И не забыл себя красивого на камеру поснимать(если бы этот кусок покрасили лучше, он был бы практически не отличим от генераций)
Так в чем здесь суть этой истории? А в том этот спек высочайшего уровня сделал чувак не выходя из дома. А сама компания Porsche увидев этот ролик и видимо прикинув сколько бы такой стоил в реале, аж написала ему коммент под роликом: Это просто потрясающе!
То есть у Ласло получилась идеальная реклама, которую совсем не отличить от живой съемки? Нет.
Там есть немного мазни, кривые лица на общих планах и прочие "наследственные болезни" генеративного видео. Но здесь сработал интересный нюанс. Я бы назвал это эффектом маленьких экранов. Большинство современных людей сейчас смотрят такие ролики на телефонах. Потому, что контент все друг другу пересылают через соц. сети. А здесь помимо динамичного рекламного монтажа, мягкости изображения еще и навалено пленочного зерна и свечения на посте. И при оптимальном рендеринге вся это красота смазывается в небольшие артефакты. И вот тут те незначительные артефакты что дает Veo2 слились с теми, что бывают при пережатии любого видео. Так выходе мы во-первых получаем качественный ролик, генеративное происхождение которого, увидят в основном насмотренные глаза на ai контент.
Какой из этого вывод?
Правильно выбранная форма, содержание и контекст вашего медиа продукта, усилит сильные стороны ИИ инструментов, с которыми вы работаете и скроет недостатки(которые временны).
Во-вторых создание сгенерированных спеков - это отличная возможность заявить о себе на рекламном рынке! А продюсерам будет проще найти себе талантливых ИИ криэйторов.
Кстати я считаю это не случайный успех. Он уже проворачивал подобное летом 2024-го с Volvo на старте Runway Gen3, но с тем уровнем качества модели, эффект был не настолько мощный, хотя свои 130 тыс. просмотров собрал. Я думаю нам стоит ждать в будущем еще более мощный и реалистичный автомобильный спек от Ласло.
Пока все хвалят новую видео модель Veo2 от Google, которая пока доступна очень ограниченному кругу лиц, произошла очень классная история.
Ai filmmaker по имени Ласло Гаал, оказавшись в кругу избранных с ранним доступом к Veo2, сделал очень мудрый шаг. Он сделал спек рекламу для существующего бренда автомобилей Porsche.
Для тех кто не связан с медиа индустрией поясню. Спек (spec) - это рекламный ролик, сделанный не по заказу. И если вы начинающий режиссер или оператор, чтобы доказать свою состоятельность в этом ремесле, вам нужно сначала показать ваши таланты сразу на деле, но взяв на себя все риски и расходы на производство. И эти "творческие" рекламные проекты и станут началом вашего портфолио, по которому вас будут выбирать ваши будущие клиенты.
Вернемся же к нашему талантливому другу Ласло. Который взял новый уровень качества и динамику Veo2 и завернул все это в ироничную историю итальянской семьи, связал это ненавязчиво с автомобилями Porsche, превратив всё в ролик в эстетике пленочной европейской рекламы. Пристегнув к этому до кучи, реалистично сгенерированные кадры бекстейджа !!!(кадров с якобы съемочной площадки). И не забыл себя красивого на камеру поснимать(если бы этот кусок покрасили лучше, он был бы практически не отличим от генераций)
Так в чем здесь суть этой истории? А в том этот спек высочайшего уровня сделал чувак не выходя из дома. А сама компания Porsche увидев этот ролик и видимо прикинув сколько бы такой стоил в реале, аж написала ему коммент под роликом: Это просто потрясающе!
То есть у Ласло получилась идеальная реклама, которую совсем не отличить от живой съемки? Нет.
Там есть немного мазни, кривые лица на общих планах и прочие "наследственные болезни" генеративного видео. Но здесь сработал интересный нюанс. Я бы назвал это эффектом маленьких экранов. Большинство современных людей сейчас смотрят такие ролики на телефонах. Потому, что контент все друг другу пересылают через соц. сети. А здесь помимо динамичного рекламного монтажа, мягкости изображения еще и навалено пленочного зерна и свечения на посте. И при оптимальном рендеринге вся это красота смазывается в небольшие артефакты. И вот тут те незначительные артефакты что дает Veo2 слились с теми, что бывают при пережатии любого видео. Так выходе мы во-первых получаем качественный ролик, генеративное происхождение которого, увидят в основном насмотренные глаза на ai контент.
Какой из этого вывод?
Правильно выбранная форма, содержание и контекст вашего медиа продукта, усилит сильные стороны ИИ инструментов, с которыми вы работаете и скроет недостатки(которые временны).
Во-вторых создание сгенерированных спеков - это отличная возможность заявить о себе на рекламном рынке! А продюсерам будет проще найти себе талантливых ИИ криэйторов.
Кстати я считаю это не случайный успех. Он уже проворачивал подобное летом 2024-го с Volvo на старте Runway Gen3, но с тем уровнем качества модели, эффект был не настолько мощный, хотя свои 130 тыс. просмотров собрал. Я думаю нам стоит ждать в будущем еще более мощный и реалистичный автомобильный спек от Ласло.