tgoop.com/radiotimur/354
Last Update:
В последние пару лет многие спорят о том, как AI изменит подход к рендерингу игр.
Кто-то говорит, что мы перейдем чуть ли не на gaussian splats или nerf-рендеринг – примерно так работает Dreams с PlayStation (кстати, один из главных инженеров MediaMolecule, работавший над Dreams, и является пионером NERF как раз).
Кто-то думает, что это будут «виртуальные консистентные миры», которые AI будет выдумывать на лету – примерно так якобы работает Sora от OpenAI, которая по сути просто показывает наблюдателю выдуманный ей мир со всеми деталями, как будто это такой сон искусственного интеллекта.
Но мне показалась очень интересной идея на основе нового video2video алгоритма от Runway. Туда народ уже пачками начал заливать геймплеи разных игр и получать довольно интересные результаты. Например, на видео выше показана игра Shenmue в ее изначальном виде, а дальшее ее прогнали через AI с нужными промптами типа «улица в небольшом азиатском городке, по ней бежит человек в кожаной куртке и джинсах». Окей, сейчас на генерацию такого видео уходят минуты. Но что если мы придем к моменту, когда подобного рода «подмена» будет делаться в реальном времени? Это будет означать, что на вход можно будет дать очень схематичный рендер, а потом с помощью промптов навернуть туда правильного арта, освещения, анимаций и тд.
Очень интересно будет наблюдать в ближайшие несколько лет, где мы окажемся с такими необычными совершенно разными направлениями для отображения графона на твоем экране.
PS. Потихоньку ИИ пытаются интегрировать и в геймплей. Например, на днях на презентации EA для инвесторов показали, как можно потенциально менять окружение в Battlefield или же правила матча с помощью чат-бота. Например, сказать, что убить противника можно только гранатой. Или что надо бы уровень сделать «поэпичнее». Пока выглядит простенько, но потенциал довольно большой для «песочниц».
BY Radio Timur
Share with your friend now:
tgoop.com/radiotimur/354