Вчера вечером кто-то неизвестный выложил ее на Hugging Face, захаркодив внутрь токены доступа API. К модели прилагалось разгневанное письмо от якобы группы художников. Они сокрушаются, что их обманули: сначала им говорили, что они станут тестировщиками, а затем просто заставили выполнять бесплатную работу на благо OpenAI. Модель они выложили в качестве мести.
Сейчас она, конечно, уже удалена, попользоваться ей успели единицы. В конфиге указано, что это была версия turbo. Но в том, что это была SORA – сомнений почти нет, запрос действительно шел на эндпоинт OpenAI. Да и примеры генерации не похожи ни на одну другую модель
А что если это тоже часть маркетинга Альтмана?….
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54🤯23🤔11🔥6👍4🗿4😁2🐳2😐2🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
У Anthropic снова крутое обновление: на этот раз в Claude добавили возможность выбора кастомных пользовательских стилей
Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно загрузить текст, стиля которого модель должна придерживаться: Claude проанализирует его и будет в будущем предлагать в качестве опции.
То, чего всем нам не хватало
Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно загрузить текст, стиля которого модель должна придерживаться: Claude проанализирует его и будет в будущем предлагать в качестве опции.
То, чего всем нам не хватало
🔥62👍14❤1
Data Secrets
У Anthropic снова крутое обновление: на этот раз в Claude добавили возможность выбора кастомных пользовательских стилей Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно…
Кому такую шапку?
😁134🔥33👍13❤3😐1💅1
Data Secrets
Новое исследование от EpochAI: даже проблемы с оборудованием не остановят развитие ИИ Учитывая, что каждая GPU H100 выходит из строя раз в 6 лет, несложная математика подсказывает, что кластер из 100к GPU будет сталкиваться со сбоями раз в 30 минут, а кластер…
Следом за предыдущим EpochAI выпустили еще одно исследование, посвященное железу
В этот раз аналитики представили целую базу данных, в которой собрали сведения о более чем 100 видах чипов. Интересные числа и выводы:
➡️ При переходе с FP32 на INT8 перформанс видеокарт повысился в 15 раз
➡️ Несмотря на зверский рост цен, графики показывают, что вычисления в пересчете на единицы каждый год становятся дешевле в среднем на 30%, и энерго-эффективнее в среднем на 50%
➡️ Чистое количество операций в секунду увеличивается примерно на 20% в год
➡️ Таким образом, мощность процессоров удваивается каждые 2.8 года (+- закон Мура)
➡️ С 2016 года максимальный размер кластеров для обучения ИИ увеличился более чем в 20 раз (!)
➡️ На данный момент самой популярной видеокартой в мире остается A100 Nvidia
Почти все графики интерактивные и потыкать их можно здесь
В этот раз аналитики представили целую базу данных, в которой собрали сведения о более чем 100 видах чипов. Интересные числа и выводы:
Почти все графики интерактивные и потыкать их можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39✍7❤6🔥1
Группа «Т-Технологии», в которую входит Т-Банк, начинает строить свои дата-центры
В совете по развитию цифровой экономики подчеркивают, что в условиях текущих ограничений этот шаг позволит больше контролировать безопасность данных клиентов, ведь в любой момент внешние сервисы могут попасть под санкции.
К 2027 в Т-Банке намерены запустить уже два центра обработки данных. В каждом из построенных ЦОД будут установлены свыше 100 тыс. серверов, а также Т-Банк станет первым банком в мире, использующим в дата-центрах технологию Direct Free Air Cooling. Проектный показатель эффективности использования электроэнергии (Power Usage Effectiveness, PUE) составит 1.15, это значительно ниже среднемирового уровня — 1.6.
В совете по развитию цифровой экономики подчеркивают, что в условиях текущих ограничений этот шаг позволит больше контролировать безопасность данных клиентов, ведь в любой момент внешние сервисы могут попасть под санкции.
"Растущий спрос на создание ЦОД в том числе продиктован ускорившейся гонкой за создание суперинтеллекта, в которой невозможно участвовать без развитой технологичной инфраструктуры", – сообщила заведующая кафедрой мировых финансовых рынков и финтеха РЭУ им. Г. В. Плеханова Светлана Фрумина.
К 2027 в Т-Банке намерены запустить уже два центра обработки данных. В каждом из построенных ЦОД будут установлены свыше 100 тыс. серверов, а также Т-Банк станет первым банком в мире, использующим в дата-центрах технологию Direct Free Air Cooling. Проектный показатель эффективности использования электроэнергии (Power Usage Effectiveness, PUE) составит 1.15, это значительно ниже среднемирового уровня — 1.6.
🔥50👍16🌭8😁3❤2🤩1
Сейчас, когда ходит все больше и больше слухов о том, что модели ИИ якобы перестали масштабироваться, многие вспоминают и возвращаются к легендарной статье Scaling Laws for Neural Language Models от OpenAI. Она была написана в 2020 году. Многие уверены, что в этой работе впервые исследуются законы скейлинга моделей, и потому она считается основополагающей. Но знали ли вы, что на самом деле scaling laws изобрели намного раньше?
Еще в 2017 году, в год выхода гугловской статьи про трансформер, вышла папира исследователей из Baidu Research, в которой они описали точно такие же зависимости и влияние количества параметров в модели и токенов в трейне на лосс. Правда, вместо трансформера ученые использовали LSTM, и не называли свои выводы "законами". Но зато они уже тогда проверили заключения и на обработке изображений, и на задаче распознавания речи, так что получился вполне себе мультимодальный подход.
Вот главный вывод из статьи OpenAI (цитата):
А вот – из статьи Baidu Research (тоже цитата):
Все новое – хорошо забытое старое?
Еще в 2017 году, в год выхода гугловской статьи про трансформер, вышла папира исследователей из Baidu Research, в которой они описали точно такие же зависимости и влияние количества параметров в модели и токенов в трейне на лосс. Правда, вместо трансформера ученые использовали LSTM, и не называли свои выводы "законами". Но зато они уже тогда проверили заключения и на обработке изображений, и на задаче распознавания речи, так что получился вполне себе мультимодальный подход.
Вот главный вывод из статьи OpenAI (цитата):
Лосс масштабируется как степенной закон с ростом размера модели, размером набора данных и объемом вычислений, используемых для обучения. Другие архитектурные детали, такие как ширина или глубина сети, оказывают минимальное влияние. Эти соотношения позволяют нам определить оптимальное распределение фиксированного бюджета вычислений.
А вот – из статьи Baidu Research (тоже цитата):
Наши эмпирические результаты показывают масштабирование лосса по степенному закону с ростом таких факторов как размер датасета и объем вычислений. При этом тюнинг самой модели только смещает лосс, но, по-видимому, не влияет на показатель степенного закона. Мы также показываем, что размер модели масштабируется сублинейно с ростом объема данных. Эти соотношения масштабирования имеют существенное значение, так как могут служить руководством при проектировании вычислительных систем.
Все новое – хорошо забытое старое?
👍55💯15❤6
Нас ждут ИИ-видеоигры от Илона Маска
В Твиттере он прокомментировал пост о том, что индустрия игр загибается и объяснил это тем, что слишком много студий геймдева принадлежит корпорациям.
В Твиттере он прокомментировал пост о том, что индустрия игр загибается и объяснил это тем, что слишком много студий геймдева принадлежит корпорациям.
«В xAI мы собираемся открыть студию разработки игр с ИИ, чтобы снова сделать игры великолепными!»
❤68👍25🔥17😁14🤪5👀1
QwQ 32b превосходит o1 в некоторых тестах и имеет открытый исходный код под лицензией Apache 2. Рассуждения в диалоге не скрываются, но могут существенно затягиваться.
"QwQ воплощает в себе древний философский дух: он знает, что ничего не знает, и это именно то, что движет его рассуждениями", – пишут разработчики в блоге.
Можно только порадоваться, что разрыв между крупными игроками и китайскими опенсорс решениями все сокращается. Это значит, что в будущем мы сможем получать опенсорс модели практически одновременно с моделями OpenAI и Anthropic (ну или те просто затаились и ждут момента выпустить свои супер-инновационные разработки, что тоже неплохо).
Код | Демо | Веса | Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
❤56👍18🔥9❤🔥2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
LM Arena опять радует прогрессом: разработчики добавили RepoChat Arena, в котором можно проверить модели на умение работать с кодовой базой
Видимо, решение вдохновлено высокой популярностью Cursor, Copilot и других разработчиков из коробки. На арене теперь можно отправить моделям ссылку на репозиторий и попросить их исправить баги / добавить фичи / задать вопросы по коду и тд, а затем проголосовать за ту модель, которая справилась лучше.
Теперь ждем лидерборд с первыми результатами
Видимо, решение вдохновлено высокой популярностью Cursor, Copilot и других разработчиков из коробки. На арене теперь можно отправить моделям ссылку на репозиторий и попросить их исправить баги / добавить фичи / задать вопросы по коду и тд, а затем проголосовать за ту модель, которая справилась лучше.
Теперь ждем лидерборд с первыми результатами
🔥38❤11👍10🤯2☃1
Новогоднее настроение в студию: на Kaggle стартовал рождественский челлендж Santa 2024
Легенда такая: кто-то перепутал слова в рождественских сказках. Цель – расставить слова по порядку, минимизируя перплексию отрывков. Другими словами, чем осмысленнее у вас получится сказка – тем выше вы в лидерборде.
В награду самым успешным командам Санта подарит $50,000🎅
Участвовать здесь
Легенда такая: кто-то перепутал слова в рождественских сказках. Цель – расставить слова по порядку, минимизируя перплексию отрывков. Другими словами, чем осмысленнее у вас получится сказка – тем выше вы в лидерборде.
В награду самым успешным командам Санта подарит $50,000
Участвовать здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61☃24👍13🔥10
Data Secrets
Новогоднее настроение в студию: на Kaggle стартовал рождественский челлендж Santa 2024 Легенда такая: кто-то перепутал слова в рождественских сказках. Цель – расставить слова по порядку, минимизируя перплексию отрывков. Другими словами, чем осмысленнее у…
Для аналитиков тоже нашли порцию новогоднего настроения
👏100☃31🔥11❤9👍5