Пока DeepSeek лагает под нагрузкой, давайте поговорим про Qwen
У компании за последние пару дней было несколько релизов, но я подождал китайского нового года и собрал всё
➖ Qwen 2.5-VL - обновлённая визуальная модель в размерах 3B, 7B и 72B. Из интересностей - возможность парсить документы в HTML и базовый компьютер юз - до клода и оператора далековато (модель попадает в лупы даже на официальных демо, правда выбирается из них).
➖ Компания сильно обновила свой чат интерфейс, там есть теперь генерация картинок с видео и поиск по интернету.
➖ Релизнули Qwen 2.5-1M - 7B и 14B модели с миллионом токенов контекста, непонятно как их sparse attention влият на качество. Много тестов пока нет - все играются с R1 и на Qwen внимания не обращают.
Веса Qwen-2.5-VL
Веса Qwen-2.5-1M
chat.qwenlm.ai
@ai_newz
У компании за последние пару дней было несколько релизов, но я подождал китайского нового года и собрал всё
➖ Qwen 2.5-VL - обновлённая визуальная модель в размерах 3B, 7B и 72B. Из интересностей - возможность парсить документы в HTML и базовый компьютер юз - до клода и оператора далековато (модель попадает в лупы даже на официальных демо, правда выбирается из них).
➖ Компания сильно обновила свой чат интерфейс, там есть теперь генерация картинок с видео и поиск по интернету.
➖ Релизнули Qwen 2.5-1M - 7B и 14B модели с миллионом токенов контекста, непонятно как их sparse attention влият на качество. Много тестов пока нет - все играются с R1 и на Qwen внимания не обращают.
Веса Qwen-2.5-VL
Веса Qwen-2.5-1M
chat.qwenlm.ai
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Хайп по DeepSeek дошёл до Трампа
Мнение сводится к: "если китайцы могут тренировать модели эффективнее, то и наши лучшие в мире учёные смогут".
На удивление взвешенная и адекватная оценка, без копиума которого так много нынче в твиттере.
@ai_newz
Мнение сводится к: "если китайцы могут тренировать модели эффективнее, то и наши лучшие в мире учёные смогут".
На удивление взвешенная и адекватная оценка, без копиума которого так много нынче в твиттере.
@ai_newz
Qwen-2.5-Max - китайцам тоже сложно конкурировать с DeepSeek
На бенчах соревнуется с фронтирными не-reasoner моделями, но стоит как reasoner.
Цена тут и правда MAX. За модель просят 10 долларов за миллион токенов на вход и 30 долларов за миллион токенов на выход. Это, если что, в разы дороже чем все конкуренты - в 2.5x дороже чем Sonnet и аж в 30x дороже DeepSeek V3. Причём Qwen тут не предлагает никаких фич для оптимизации цен, даже тех, что уже стали стандартом.
Основное достоинство модели при такой цене - то, что её главный конкурент в Китае находится под жуткой нагрузкой уже второй день и не может выдержать всех желающих.
Ко всему прочему это закрытая модель, как и все современные MoE модельки Qwen. Бесплатно потестить можно в их чат интерфейсе.
chat.qwenlm.ai
Хух, в Китае наступил Китайский Новый год и релизов от них должно стать чуть меньше
@ai_newz
На бенчах соревнуется с фронтирными не-reasoner моделями, но стоит как reasoner.
Цена тут и правда MAX. За модель просят 10 долларов за миллион токенов на вход и 30 долларов за миллион токенов на выход. Это, если что, в разы дороже чем все конкуренты - в 2.5x дороже чем Sonnet и аж в 30x дороже DeepSeek V3. Причём Qwen тут не предлагает никаких фич для оптимизации цен, даже тех, что уже стали стандартом.
Основное достоинство модели при такой цене - то, что её главный конкурент в Китае находится под жуткой нагрузкой уже второй день и не может выдержать всех желающих.
Ко всему прочему это закрытая модель, как и все современные MoE модельки Qwen. Бесплатно потестить можно в их чат интерфейсе.
chat.qwenlm.ai
Хух, в Китае наступил Китайский Новый год и релизов от них должно стать чуть меньше
@ai_newz
Опенсорс Suno🤡 🤡 🤡
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB VRAM, то есть 4090 может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB VRAM, то есть 4090 может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Фотоотчет с тусовки "эйай ньюз" на Бали
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было очень круто - интересные люди (не обошлось и без присущих Бали приколов), классное пространство (отдельное спасибо Ash Nuanu), и глубокие разговоры про AI! Кстати, это был первый раз, когда подготовка к ивенту была настолько серьезной, что у нас было даже целых два микрофона, чтобы все могли хорошо слышать дискуссию и задавать вопросы.
Я в очередной раз приятно удивлен концентрацией умных, приятных и талантливых людей в нашем комьюнити!
---
Как вы уже могли заметить, я очень люблю организовывать такие тусы. Поэтому, пользуясь случаем, хочу анонсировать, что я буду на Кипре, в Лимассоле на этих выходных и хочу там тоже организовать сходку! Ориентировочно в Вск вечером 2.02.2025. За подробностями присоединяйтесь к Кипрскому чату, если вы на Кипре. Буду рас вас всех увидеть!
@ai_newz
Mistral Small 3
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
О, вот и новая моделька от Mistral, от который уже несколько месяцев не было опенсорс релизов. 24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
magnet:?xt=urn:btih:11f2d1ca613ccf5a5c60104db9f3babdfa2e6003&dn=Mistral-Small-3-Instruct&tr=udp%3A%2F%http://2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=http%3A%2F%http://2Fopen.tracker.cl%3A1337%2Fannounce
Блогпост
@ai_newz
эйай ньюз
Пришли ревью с ICLR. Мы получили отличные рецензии! Но как всегда есть тот самый Reviewer #2, который порет какую-то фигню. С поддержкой остальных ревьюеров, думаю, мы легко сможем опровергнуть R2, и, надеюсь, статья будет принята. Что за статья пока точно…
В суматохе работы cовсем забыл поделиться хорошими новостями! Нашу статейку приняли на ICLR – spotlight! Ну, и кстати, я впервые сабмитил что-то на ICLR, до этого были либо конференции по зрению либо NeurIPS.
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Это моя первая статья непосредственно по LLM, мы там представляем новый метод по значительному ускорению инференса 405-миллиардной модели.
В ближайшие дни будет на архиве, тогда и напишу про нее подробнее.
#резерч
@ai_newz
Qwen Video?
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально😂
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Пару дней назад я писал про Qwen-2.5-Max – вот тут. Так вот, туда прикрутили видео генератор! Он не встроенный, конечно, тут дёргается сторонняя диффузионная модель.
Теперь доступ к видео есть почти у всех (в ЕС не работает, работает под американским и британским VPN).
Ну, как для всех… Сервера, конечно, лежат, как это часто бывает с релизом видео-моделей. Это уже как будто must-have: если сервера не падают, значит, ваша модель – никому не нужная хрень. Так что, если бы я делал свой стартап, то положил бы серверы специально
Подробностей про эту модельку нет от слова совсем, только текст на вотермарке – TONGYI WANX. Однако качество и следование промпту оч добротное, анатомия в том числе. Можно было бы подумать, что это Kling 1.6 или Minimax, подключенный по API, но Qwen лепит свою вотермарку на видосы, да еще и генерит их бесплатно. Поэтому в этой версии возникают сомнения. Кто-то предположил, что это может быть новый Minimax, они вроде бы связаны с Qwen через Alibaba.
Я собрал черипики из твиттера на оценку местным мастерам. Еще примеры в комментариях. Как думаете, это новая безымянная модель от Qwen или что-то из уже известных?
chat.qwenlm.ai
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI выпустили o3-mini - бесплатно
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
Лимиты бесплатным пользователям пока непонятные, Pro подписчикам дают безлимит, Team и Plus - 150 сообщений в день. Также к o3-mini, в качестве эксперимента, прикрутили поиск.
Модель доступна одновременно как и в чате так и в API, куда добавили поддержку function calling и structured output для этой модели. Цену скинули в три раза - стоит новая модель $1.10/$4.40 за миллион токенов, что лишь немногим дороже R1 с официального API (и дешевле многих неофициальных).
У новой модели есть три режима работы:
(1) быстрый режим low compute,
(2) обходящий o1-mini режим medium (всё равно на 24% быстрее),
(3) и опережающий o1 на большинстве бенчей, более медленный режим high compute.
Есть и нюансы - как и оригинальная o1-mini, o3-mini не поддерживает мультимодальный ввод, а одну из требующих агентности задач модель полностью провалила - использовала bash вместо питона не смотря на все попытки уговорить её это не делать.
Модель очень интересная, классно что бесплатным пользователям наконец-то дали reasoning модель. Ощущается как OpenAI задвигались, когда появилась конкуренция - и цены сбрасывают, и доступ бесплатным юзерам дают, и поиск прикручивают.
@ai_newz
У ChatGPT 15,5 миллионов платных подписчиков
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
По данным The Information, с сентября добавилось более 4 миллионов подписчиков. Их доля общем количестве юзеров не растёт и составляет около 5%, а рост в количестве подписчиков обусловлен ростом юзербазы, которая за 2024 год утроилась.
А вот средняя выручка с подписчика растёт - Pro подписка уже приносит больше выручки чем Enterprise, то есть количество Pro подписчиков уже измеряется в сотнях тысяч. При этом всём, по заявлениям Сэма Альтмана, подписка месяц назад была убыточной - OpenAI не расчитывали на такое активное использование. При таких вводных подписка в $2,000 звучит уже не так безумно как несколько месяцев назад.
Ещё быстрее подписок росла выручка с API - за 2024 она выросла в 7 раз, при том что компания несколько раз за 2024 год сбрасывала цены. Вот вам и наглядная иллюстрация парадокса Джевонса.
При этом всём, сколько именно зарабатывают сейчас OpenAI понять трудно. Хоть мы и знаем, что за первое полугодие 2024 проекция выручки удвоилась до $3,4 миллиарда долларов в год, но как повлияли на выручку запуск Voice API и o1 - незвестно. Зато известно что переговоры про новый раунд инвестиций размером в $40 миллиардов, ведутся уже при оценке компании в $260 миллиардов, что на 73% выше оценки в октябре 2024
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Датамайнеры нашли в Claude (пока) не релизнутую возможность заплатить за "сброс" лимита сообщений, когда сообщения заканчиваются. Сколько это будет стоить - пока что непонятно.
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz
У Claude последние несколько месяцев всё очень плохо с лимитами - они у Anthropic динамические и зависят от нагрузки, но серверов им не хватает и нагрузка там всегда очень высокая и лимиты крайне маленькие. Я, в последние несколько месяцев, много раз видел в твиттере пользователей умоляющих о такой функции, ну вот они и прислушались. Но насколько нужно это сейчас, когда есть несколько серьёзных конкурентов без таких проблем с лимитами, куда и перешла значительная часть пользователей Claude - вопрос.
А вам какой из новых способов монетизации низких лимитов больше нравится - этот, или подписка за $200?
@ai_newz