Telegram Web
И снова здравствуйте!

Я продолжаю участвовать в каталогах интересных каналов по темам AI, науки и IT — сегодня предлагаю вашему вниманию топ подборку папку с каналами об искусственном интеллекте, виртуальной реальности, метавселенных, разработке, технологиях и кадрах

🔝 Папка подойдёт не только тем, кто работает в этой сфере, но и всем, кто хочет себя приблизить к современным трендам высоких технологий
🧠 Будьте в курсе самых свежих новостей и мнений от лидеров индустрии

Подпишитесь скорее на каналы👇 уверен, что на ряд из них вы уже подписаны
Подписаться
👎22🔥5😁2🎉2👍1💯1
⚡️Свежий апдейт LLaVA-NeXT

LLaVA-NeXT-Interleave: Tackling Multi-image, Video, and 3D in Large Multimodal Models

LLaVA-NeXT — опенсурс мультимодальная диалоговая модель для работы с картинками и текстом.

Основной контрибьют — добавили разные режимы «перемешанных» (interleaved) изображений и текстов. Таким образом модель может решать задачи с одной картинкой, несколькими изображениями, несколькими кадрами видео и несколькими ракурсами одного объекта (полезно кстати для задач робототехники и анализа картины мира).

Все эти задачи заправлены в новый M4-Instruct сет на 1+M сэмплов. И также есть бенч на этот же спектр задач.

Архитектурно — ничего нового. Обучали с модели, которая до этого работала только с одной картинкой, то есть тюн с изменением структуры диалога хорошо ложится поверх VLM (совершенное открытие!).

Но безусловно, очень ценны данные и бенч.

🟢Статья
🟢Код
🟢M4-Instruct

@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1110👌3
⚡️AuraFlow v0.1 — новый open-source text-to-image проект на базе диффузионных трансформеров (по сути имплементация ставшей уже закрытой StableDiffusion 3 с некоторыми архитектурными изменениями)

Из интересного:
📍заменили в большинстве случаев MMDiT блоки (как в SD3) на простые DiT, что сократило затраты на обучение
📍заменили параметризацию на maximal update parametrization, что позволило повысить предсказуемость поведения loss функции при скейлинге архитектуры (при стандартной параметризации можно учить маленькую модель, скажем с Adam’ом, вполне нормально, но при увеличении размеров модели можно получить взрыв градиентов)
📍Recaption everything — подчеркивает важность текстовых описаний в обучении, авторы пишут, что это дало серьёзный буст в качестве
📍Исследуя параметризацию, авторы пришли к оптимальному размеру модели при скейлинге — 6.8B параметров

👨‍💻Модель уже есть в diffusers, откуда её можно просто забрать и поиграться на выходных:
from diffusers import AuraFlowPipeline


❗️Модель показывает SoTA на бенчмарке GenEval0.703 (с учётом prompt enhancement)

Пока это v0.1 и, судя по всему, скоро нас будут ждать новые версии модели, возможное даже с MoE подходом. А пока предлагаю поиграться с моделью (сам тоже хочу посмотреть степень понимания текстового описания — пишут, что модель очень хорошо ему следует) — черрипики в закрепе как всегда прекрасны😉

🟢Блог
🟢Веса модели

@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22👍41😁1
❗️До 15 июля коллеги из МФТИ продолжают набор в магистратуру и аспирантуру ФПМИ по искусственному интеллекту и робототехнике с повышенной стипендией!

Поступление проходит в:
📍Магистратуру по программе «Методы и технологии искусственного интеллекта» — 15 мест,  со стипендией до 30 тыс. руб.

📍Аспирантуру по направлению «Информатика и вычислительная техника» — 5 мест, со стипендией до 80 тыс. руб.

Для поступления необходимо заполнить анкету по ссылке 👇

В Центре под руководством ведущих специалистов в своих областях вы сможет заниматься написанием статей на передовые конференции А* (NeurIPS, ICLR, ICML, IJCAI и др.), а также работать над прикладными проектами по различным актуальным тематикам, среди которых RL, беспилотный транспорт, компьютерное зрение и др.

📝 Заполнить анкету
👍13💯2🔥1🤓1
Достойнейшие из достойных🏆
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥375🏆4👀2👎1
Увидел тут в одном интересном канале пост про ИИ в фэшн индустрии. Возникли некоторые мысли, которыми захотелось поделиться.

Не секрет, что один из моих основных фокусов в исследованиях — генеративные модели, поэтому так или иначе про прикладные применения технологии читать всегда интересно. Персонализация в фэшн индустрии, на мой взгляд, ключ к сердцу покупателя. Море опросов можно найти, где респонденты уверено подчеркивают пользу влияния ИИ в части рекомендаций товаров, в части предложения новых услуг. На днях, например, один из пионеров индустрии моды в Европе объявил о старте AI-based рекламной кампании линейки молодёжной одежды. При этом они не просто сгенерировали картинки одежды, а прошли полный цикл: сначала была изготовлена коллекция одежды, потом все элементы коллекции были сфотографированы, а далее обучалась модель, которая далее правильно «одевала» в эту одежду моделей на сгенерированных картинках (пример из кампании как раз в закрепе) .

О чём это всё говорит: индустрия под влиянием ИИ меняется, даже такие чувствительные направления как мода не остаются в стороне. В недалеком будущем предполагаю, что будут и персональные коллекции одежды, сам стиль будет подбираться индивидуально под физиологию человека, а перенося это всё в «видео» модальность мы сможем «покрутить» себя и посмотреть со стороны как будем выглядеть в той или иной одежде и в разных окружениях. И одежда — это всего лишь одна из повседневных потребностей человека, но в формате персонализации такие «AI-стилисты» должны учитывать и твоё настроение (ммм, ИИ-эмпатия), и геолокацию, и погоду, и календарь встреч, и многие другие факторы, влияющие на выбор. Мода и одежда становится компонентом, как сейчас принято называть, модели мира, где каждый сможет «оцифровать» себя, сгенерировать любое окружение и смоделировать различные сценарии. Вот так от темы генерации и примерки одежды мы быстро приходим к AGI😉

А хочется ли этого вам? Надо ли такое или это уже перебор?
🔥21👀4💯3
В настоящее время задачи оптимизации моделей ИИ крайне необходимы и популярны, это позволяет сокращать расходы на GPU которые в современном мире на вес золота. Это касается как обучения нейросетей, так и последующего инференса, особенно, если сервис становится популярным и MAU/DAU растут как на дрожжах. Наша команда недавно опубликовала статью про способ оптимизации архитектур «Your Transformer Is Secretly Linear» 📝

Для "разгона" нейросетей приходите на лекцию от Deep School 🗓 18 июля в 18:00 🗓 На ней вы узнаете, какие методы ускорения существуют и сможете задать свои вопросы специалисту в этой области 🗒

Саша Гончаренко, СТО стартапа enot.ai, за лекцию:
— применит прунинг, квантование и дистилляцию для ускорения нейросети 😎
— подробно объяснит все методы
— рассмотрит возникающие тсложности и способы их решения 💻
— объяснит, почему различается результат на разных вычислителях 🤔
— расскажет о вызовах в ускорении 💻
— и представит обновлённую программу курса «Ускорение нейросетей»

Регистрируйтесь на лекцию по ссылке!

🎁После регистрации вы получите туториал по использованию TensorRT и OpenVino

Приходите на лекцию 18 июля в 18:00 МСК!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🤓3🔥21🙏1
Всем привет 🖐

Задумался на днях про маркировку ИИ-контента, ибо много обсуждений ведётся, а мнение публичное я не встретил, а очень хочется узнать разные позиции.

Моя личная позиция в том, что маркировка мультимедиа - важная задача, потому что позволяет понимать как распространяются генерации, как влияют на инфополе. Одна случайная картинка может стоить владельцу модели, бигтеху или стартапу репутации. Такие картинки можно успеть задетектить или доказать, что они сделаны не вашим ИИ при наличии встроенного механизма защиты.

Также маркировка поспособствует развитию генеративного искусства и защите авторского права. Хотя тема авторства ИИ-контента сложная, но почему не думать об этом на будущее?

Ну и, конечно, помимо маркировки нужно развивать инструменты для её анализа. Вот, например, кто-то взял картинку котика и дорисовал ему не совсем то, что надо; и вроде и контент промаркирован, а вроде уже не исходное изображение. Значит надо еще и за устойчивостью решений следить к разным локальным правкам контента.

А ещё: как именно маркировать контент? Предлагаю всем подумать в комментариях под этим постом 🔍

А ниже два коротких вопроса, буду признателен за участие 🙏
👍6🔥42❤‍🔥1🤝1
Считаете ли вы, что внедрение механизмов невидимой маркировки позволит обезопасить ИИ-контент от внешних пользовательских изменений?
Anonymous Poll
25%
Да
46%
Да, но этого недостаточно для полноценной защиты
30%
Нет
👏4
Считаете ли Вы, что внедрение сервисов по идентификации ИИ-контента является лучшей практикой на рынке по обеспечению прозрачности для пользователя?
Anonymous Poll
53%
Да
10%
Да, но внедрять такие методы в России необходимости нет
37%
Нет
⚡️Субботние новости!

AI-Центр Т-Банка открыл доступ к своей языковой модели T-lite 7-8B. С точки зрения качества по замерам модель обгоняет многие открытые, а в некоторых задачах и проприетарные модели. Например, на независимом бенчмарке MERA T-lite обгоняет Llama3-8b-iInstruct, Mistral-7b-Instruct-v0.3. На внутренних задачах типа суммаризации и банковских кейсов модель тоже показывает себя лучше, чем Llama3 и ChatGPT-3.5.

В релизе также отмечают, что для обучения потребовалось достаточно мало вычислительных ресурсов (3% от обычно используемых для задач обучения). В целом это лишний раз подтверждает, что решать вариативные задачи можно без гигантских мощностей в наличии.

Приятно, что на рынке растёт количество игроков на арене LLM: Сбер, Яндекс, Т-Банк, МТС, и что несмотря на выбиваемые регулярно новые показатели, всегда есть запас для улучшения качества.

Модель T-lite доступна по ссылке

UPD: смотрите инструктивные веса тут
💯19🔥15👍112
👉Кому интересно почитать про то, как сделать LLM более сговорчивой на разные темы (abliteration = ablated + obliterated), предлагаю посмотреть в материале тут

Грубо говоря, имея некоторый harmful датасет, его прогоняют через модель, определяют активации, которые сигнализируют об отказах модели отвечать на какие-то вопросы, а потом ортогонализируют соответствующие тензоры. Так модель сохраняет основную часть своих весов нетронутыми, а refusal direction за счёт ортогонализации меняется. Конечно, речь не идёт об устранении 100% отказов отвечать на вопросы, но тем не менее позволяет «ослабить» LLM
👍12🔥8💯2
🎬Сегодня вышел выпуск на канале Основа

Получилось довольно круто на мой взгляд! Поговорили с Борисом про современные тренды в ИИ, подискутировали про будущее и возможности современных технологий.

Приглашаю всех посмотреть, выходной как раз этому способствует! Заранее спасибо за просмотр🙏

👉Подкаст
👍4012🔥10🏆43
👋 Мои коллеги из ИТМО AI Talent Hub набирают новых магистрантов

В этом году открывается LLM-трек
🌠Учебный трек фокусируется на актуальных топиках в развитии LLM. Каждый месяц – обновление и актуализация данных.
И разработан совместно с экспертами из AIRI, Raft, Napoleon IT, Университета ИТМО, а также приглашенных экспертов-разработчиков YandexGPT и GigaChat.

Также в магистратуре:
🔛Гибкая система выбора траектории обучения позволяет собрать индивидуальный трек.
🔛Занятия проходят онлайн в вечернее время, вы можете подключаться из любой точки мира (льготы при этом как у «очников»: отсрочка от армии, диплом очной магистратуры)
🔛Сильное комьюнити. Менторы, преподаватели и авторы курсов — действующие специалисты топовых AI-компаний — всегда готовы поделиться своим опытом и помочь советом.

❗️Чтобы успеть пройти на бюджет, подайте заявку до 25 июля

👉Подробнее про LLM -трек
👉Подать заявку в магистратуру AI Talent Hub
Please open Telegram to view this post
VIEW IN TELEGRAM
21🔥20👍19
Всем привет!

🤖 Мои коллеги из научной группы "Адаптивные агенты" в AIRI сейчас активно ищут стажёров в свою программу карьерного роста shorties.

Дедлайн подачи заявок — 15 августа сего года.

Если вы любите RL, как любят его ребята — вам точно туда!
👉Подробнее можно прочитать в посте в канале команды — @dunnolab
А если есть вопросы HR характера, то пишите смело Ксении @ksenia_jaja
❤‍🔥9🆒4💯2🔥1
⚡️⚡️⚡️Рабочая неделя подошла к концу я с новостями

Команда Айбека Аланова «Контролируемый генеративный ИИ» лаборатории FusionBrain AIRI разработала фреймворк StyleFeatureEditor, который позволяет быстро редактировать фотографии как по текстовому описанию, так и по набору стилей. Особенность ключевая в том, что при редактировании сохраняется качество реконструкции, а вносимые изменения выглядят при подборе параметра очень реалистично.

Научная фишка в том, что обучение энкодера делится на две фазы. Сначала просто учим понимать представления в F‑пространстве (модуль Inverter). После инверсии теряется редактируемость и чтобы её восстановить на втором этапе мы встраиваем и обучаем новый модуль Feature Editor, чья задача — модифицировать F‑тензор таким образом, чтобы добиться желаемого изменения стиля.

🔥Научная статья про данный подход была принята на самую цитируемую конференцию по компьютерному зрению CVPR-2024.

🟢Все детали на Хабре
🟢Протестировать модель можно в демке на Hugging Face👇. Она пока работает только с изображениями лиц, но скоро раскатаем и на другие домены😉

Предлагаю в комментариях размещать самые интересные результаты редактирования (каких стилей там только нет🤫)

Хабр
Демо

Всем хороших выходных👋
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥40🏆96💯5👏1
2025/07/13 04:29:22
Back to Top
HTML Embed Code: