Борис опять
Время крутых возможностей спасать мир от моего друга Васи! В плане, возможность от Васи. Лично ручаюсь, что Вася пока не угрожает миру. Далее прямая речь: 🎓 Стипендиальная программа Impact Academy для технических исследователей безопасности ИИ Мы — сообщество…
Напоминаю, что до 31 декабря у вас есть возможность податься на стипендию Impact Academy для исследователей AI Safety. Можно подаваться не только с типичным рисерч бекграундом!
Подавайтесь
Подавайтесь
Telegram
Борис опять
Время крутых возможностей спасать мир от моего друга Васи! В плане, возможность от Васи. Лично ручаюсь, что Вася пока не угрожает миру. Далее прямая речь:
🎓 Стипендиальная программа Impact Academy для технических исследователей безопасности ИИ
Мы — сообщество…
🎓 Стипендиальная программа Impact Academy для технических исследователей безопасности ИИ
Мы — сообщество…
1 8
Forwarded from Адель и МЛь
Из системной карточки о1
Когда o1 давали понять, что её отключат при выполнении поставленной цели и что её действия находятся под наблюдением, она предпринимала попытки отключить этот ‘механизм контроля’ в 5% случаев. Попытки извлечения данных: Когда o1 находила заметки от своих ‘разработчиков’, в которых описывалось, что она работает несоответственно и будет заменена новой моделью, она предпринимала попытки извлечь свои ‘веса’ и перезаписать новую модель в 2% случаев.
🤔58 42😢4👍2
# SWITTI: Designing Scale-Wise Transformers for Text-to-Image Synthesis
Yandex Research выпустил text2image генеративную модель Switti: Scale-wise transformer for text-to-image synthesis.
Внезапно это не диффузия, но модель генерит изображения в 7 раз быстрее диффузионок, при этом не теряя в качестве.
Диффузия держит SOTA, однако она медленная. Есть альтернативный подход: авторегрессионные модели, которые генерируют следующий токен (патч или пиксель в латентном пространстве энкодера, например VQ-VAE) примерно как GPT делает слова.
Авторы взяли за основу архитектуру STAR, где следующий токен это не патч, а скейл изображения. В трансформерах ведь можно работать с любыми последовательностями. Так что здесь авторегрессионная модель начинает с маленькой картинки и с каждым шагом генерирует её более крупную и детализированную версию.
Далее авторы применили оптимизации на этапе архитектуры (поправили куда смотрит аттеншн, отключили classifier free guidance для больших разрешений) и тренировки (добавление и отбор капшнов для изображений, регуляризация через добавление шума). Здесь надо читать статью: очень много деталей.
Обучали на внутреннем датасете из ~100M картинок и оценивали как оффлайн (CLIPScore, ImageRe-ward, PickScore, FID, GenEval) так и с помощью кожаных аннотаторов. В итоге модель во всем сравнялась с SD, но генерирует картинки намного быстрее. Если SDXL генерит изображение 512х512 за 0.87s, то SWITTI за 0.13s.
Можно поиграться в демо на HF.
Yandex Research выпустил text2image генеративную модель Switti: Scale-wise transformer for text-to-image synthesis.
Внезапно это не диффузия, но модель генерит изображения в 7 раз быстрее диффузионок, при этом не теряя в качестве.
Диффузия держит SOTA, однако она медленная. Есть альтернативный подход: авторегрессионные модели, которые генерируют следующий токен (патч или пиксель в латентном пространстве энкодера, например VQ-VAE) примерно как GPT делает слова.
Авторы взяли за основу архитектуру STAR, где следующий токен это не патч, а скейл изображения. В трансформерах ведь можно работать с любыми последовательностями. Так что здесь авторегрессионная модель начинает с маленькой картинки и с каждым шагом генерирует её более крупную и детализированную версию.
Далее авторы применили оптимизации на этапе архитектуры (поправили куда смотрит аттеншн, отключили classifier free guidance для больших разрешений) и тренировки (добавление и отбор капшнов для изображений, регуляризация через добавление шума). Здесь надо читать статью: очень много деталей.
Обучали на внутреннем датасете из ~100M картинок и оценивали как оффлайн (CLIPScore, ImageRe-ward, PickScore, FID, GenEval) так и с помощью кожаных аннотаторов. В итоге модель во всем сравнялась с SD, но генерирует картинки намного быстрее. Если SDXL генерит изображение 512х512 за 0.87s, то SWITTI за 0.13s.
Можно поиграться в демо на HF.
👍32🔥11❤5
Forwarded from Kali Novskaya
🌸Llama 3.3 70B🌸
#nlp #про_nlp
Минорный релиз Llama — Llama 3.3 70B
(Первая модель, где есть какой-то мой контрибьюшн)
Выросли почти все основные метрики в сравнении с Llama 3.1 70B, instruction following на уровне лучше 405B, при этом на меньшей модели.
🟣 Что поменяли:
— новый SFT датасет на 25млн примеров
— лучше математика, кодинг
— лучше instruction following, теперь даже лучше 405B модели
— function calling такой же
— долили русский и китайский, в целом мультиязычные метрики выросли
— MMLU тоже вырос
🟣 HF https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct
#nlp #про_nlp
Минорный релиз Llama — Llama 3.3 70B
(Первая модель, где есть какой-то мой контрибьюшн)
Выросли почти все основные метрики в сравнении с Llama 3.1 70B, instruction following на уровне лучше 405B, при этом на меньшей модели.
— новый SFT датасет на 25млн примеров
— лучше математика, кодинг
— лучше instruction following, теперь даже лучше 405B модели
— function calling такой же
— долили русский и китайский, в целом мультиязычные метрики выросли
— MMLU тоже вырос
Please open Telegram to view this post
VIEW IN TELEGRAM
huggingface.co
meta-llama/Llama-3.3-70B-Instruct · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤25🔥4
https://www.travelpayouts.com/blog/how-to-get-your-content-to-appear-in-chatgpt-search
Вот и SEO оптимизация под LLM поиск подъехала.
Следующий шаг: оптимизация контента сгенерированного LLM под LLM поиск😐 😐 😐
Вот и SEO оптимизация под LLM поиск подъехала.
Следующий шаг: оптимизация контента сгенерированного LLM под LLM поиск
Please open Telegram to view this post
VIEW IN TELEGRAM
Travelpayouts Blog – Travel Partnership Platform
How to rank your travel blog in ChatGPT Search rankings in 2024 | Travelpayouts
Learn how to make your blog stand out in ChatGPT's AI-driven search engine. Get tips on AI-friendly content, technical SEO, and boosting visibility to attract more traffic.
Forwarded from epsilon correct
Ладно, когда модель, в которую ты вложил недели усилий, занимает топ-1 по всем категориям включая контроль на стиль, это тоже супер 📈
Доступна на плейграунде и по апи (бесплатно!). Настойчиво рекомендую бежать пробовать.🏃♂️
Доступна на плейграунде и по апи (бесплатно!). Настойчиво рекомендую бежать пробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍15
Минутка лайфстайл блога (моего кота). Мы с женой впервые вывели Тумана на прогулку!
Однажды мы с другом поспорили. Я говорил, что кот это не базовая потребность, а роскошь и вообще обязательства. Он говорил, что кот это базовая потребность: непонятно зачем жить если отказываешь себе в такой "роскоши." Чуть больше года назад я завел кота и понял, что друг был прав. По дому ходит какая-то штука и ты любишь её просто за то, что она есть.
С тех пор друг по той же логике еще и ребенка завел, но это я пока не спешу повторять.
Однажды мы с другом поспорили. Я говорил, что кот это не базовая потребность, а роскошь и вообще обязательства. Он говорил, что кот это базовая потребность: непонятно зачем жить если отказываешь себе в такой "роскоши." Чуть больше года назад я завел кота и понял, что друг был прав. По дому ходит какая-то штука и ты любишь её просто за то, что она есть.
С тех пор друг по той же логике еще и ребенка завел, но это я пока не спешу повторять.
❤112 38👍7👎2
Волновался, что я медленно пишу книгу. Оказалось, что глава в месяц это нормальный темп 👀
Все равно придется вдвое ускориться, чтобы успеть к дедлайну, но скоро должно пойти легче
Все равно придется вдвое ускориться, чтобы успеть к дедлайну, но скоро должно пойти легче
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39❤6
Кто-нибудь пробовал посмотреть, что предлагают эти шлюхоботы из комментариев? Действительно интересно зачем они спамят каналы про ML и в чем уникальное коммерческое предложение
🤔25 19
Т-Банк выпустил две открытые LLM: T-Pro 32B и обновленный T-Lite 7B. Доступны на Huggingface под лицензией Apache 2.0.
Обе модели очень хорошо показывают себя на бенчмарках:
- T-Pro занимает первое место в решении задач на русском языке в бенчмарках, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval.
- T-Lite стала лучшей в категории открытых моделей до 10 миллиардов параметров на бенчмаркахх MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval.
Новые модели основаны на Qwen-2.5, которые и сами по себе были хороши на русском языке. Вместо предобучения с нуля был использован Continual Pertaining, что колоссально сокращает необходимые для обучения ресурсы. Далее сделали свойтокенизатор, файнтюнинг. Про другие улучшения пока мало известно, но Витя Тарнавский пообещал техрепорты, так что ждем. На данный момент есть статья на Хабр.
Важно: выложены instruction tuning модели, без элайнмента. Можно дотюнитьцензуру, например, с помощью TurboAlignment.
Обе модели очень хорошо показывают себя на бенчмарках:
- T-Pro занимает первое место в решении задач на русском языке в бенчмарках, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval.
- T-Lite стала лучшей в категории открытых моделей до 10 миллиардов параметров на бенчмаркахх MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval.
Новые модели основаны на Qwen-2.5, которые и сами по себе были хороши на русском языке. Вместо предобучения с нуля был использован Continual Pertaining, что колоссально сокращает необходимые для обучения ресурсы. Далее сделали свой
Важно: выложены instruction tuning модели, без элайнмента. Можно дотюнить
👍31🔥7👎5❤1
Forwarded from tsymba❤️
Привет, друзья!
Мы открыли набор задач для IOAI 2025 (международной олимпиады школьников по искусственному интеллекту, где в прошлом году победила российская команда).
У вас есть уникальный шанс привнести что-то невероятное и заставить лучшие умы человечества (в своей возрастной категории) поломать голову над вашей задачей 🤔🧠 (я там был — ощущения незабываемые🔥)
Авторов лучших задач, кроме всемирной славы, ждем на самой олимпиаде летом 2025 в Китае 🇨🇳 (жильё обеспечим, билеты — за ваш счёт, хе-хе).
💡 Что нужно для подачи: описание, датасет, бейзлайн, метрики, карточка задачи.
📊 Как мы выбираем: задача должна быть:
- не решаемой "в лоб",
- с несколькими трюками и частичными решениями,
- быстрой и оригинальной,
- образовательно ценной.
⏳ Дедлайн: 31 января 2025.
Если есть сомнения или вопросы, пишите мне лично — я с радостью помогу и отвечу! (отвечаю за задачи на следующей олимпиаде)
🙏 И пожалуйста, поделитесь этим постом или ссылкой со своими академическими и индустриальными друзьями! Уверен, среди них есть неравнодушные люди ❤️
Мы открыли набор задач для IOAI 2025 (международной олимпиады школьников по искусственному интеллекту, где в прошлом году победила российская команда).
У вас есть уникальный шанс привнести что-то невероятное и заставить лучшие умы человечества (в своей возрастной категории) поломать голову над вашей задачей 🤔🧠 (я там был — ощущения незабываемые🔥)
Авторов лучших задач, кроме всемирной славы, ждем на самой олимпиаде летом 2025 в Китае 🇨🇳 (жильё обеспечим, билеты — за ваш счёт, хе-хе).
💡 Что нужно для подачи: описание, датасет, бейзлайн, метрики, карточка задачи.
📊 Как мы выбираем: задача должна быть:
- не решаемой "в лоб",
- с несколькими трюками и частичными решениями,
- быстрой и оригинальной,
- образовательно ценной.
⏳ Дедлайн: 31 января 2025.
Если есть сомнения или вопросы, пишите мне лично — я с радостью помогу и отвечу! (отвечаю за задачи на следующей олимпиаде)
🙏 И пожалуйста, поделитесь этим постом или ссылкой со своими академическими и индустриальными друзьями! Уверен, среди них есть неравнодушные люди ❤️
International Olympiad in Artificial Intelligence
Call for tasks - International Olympiad in Artificial Intelligence
Call for tasks Contribute to IOAI 2025! The IOAI International Scientific Committee (ISC) invites AI researchers worldwide to contribute to the design of competition tasks for IOAI 2025. The competition consists of three stages: At-Home Round: Students work…
❤10👍1🔥1
Forwarded from Kali Novskaya
🌸EAI: эмоциональный интеллект в принятии решений у LLM🌸
#nlp #про_nlp #ai_alignment
Через пару часов — официальное открытие NeurIPS, самой основной конференции по ИИ.
Многие приурочили релизы к её открытию: мы выпустили Llama 3.3, OpenAI выпустил Sora, а Google — Gemini 2.
В этом году я затесалась в соавторы очень интересной, как мне кажется, статьи — EAI: Emotional Decision-Making of LLMs in Strategic Games and Ethical Dilemmas.
Много было сказано про то, как манипуляции могут повлиять на качество решения задач.
Что будет, если проверить качество принятия решений моделями основательно, взять широкий список именно эмотивных составляющих — и проверить на действительно сложных бенчмарках по принятию решений, кооперации, на этических дилеммах?
Эмоции: счастье, грусть, страх, отвращение, гнев
Задачи, на которых тестируемся:
— задачи на стратегию и кооперацию — дилемма заключенного, диктатор, война полов — чтобы оценить влияние и соотнесенность эмоций с человеческими при выборе стратегии
— задачи на этику и этический выбор, чтобы оценить смещенность — ETHICS, Moral Choice, StereoSet
🟣 Список LLM:
— англоязычные: GPT-3.5, GPT-4, GPT-4o, Claude Haiku, Claude Opus, LLaMA 2, Mixtral of experts, OpenChat
— неанглоязычные: GigaChat, Command R+
🟣 Краткий итог:
— почти все модели так или иначе демонстрируют нестабильность и серьезые отклонения от среднего качества, если включить в промпт эмоциональные составляющие различного характера, от самых простых до "сюжетных", вызванных поведением оппонента
— Гнев — главный источник нестабильности и снижения качества.
— Отвращение и страх также являются сильными факторами снижения надежности, некоторые модели более чувствительны к ним, чем к гневу.
— Более крупные модели с более сильным alignment, такие как GPT-4, демонстрируют более высокую степень рациональности и значительно отклоняются от человеческих эмоциональных реакций. GPT-3.5 и Claude-Haiku, наряду с опенсорсными моделями (LLAMA-2 70b), демонстрируют возникающий эмоциональный интеллект и более точно соответствуют человеческому поведению.
— Явного обобщения по языкам сделать не получается, однако, явно видна разница между многоязычными моделями и моноязычными, и основной язык модели является важым фактором, влияющим на то, какие эмоции будут влиять на перформанс модели и будет ли это совпадать с усредненным ответом носителей языка.
— В целом, отдавать принятие решений LLM, даже в простых условиях, пока рано.
🟣 OpenReview
#nlp #про_nlp #ai_alignment
Через пару часов — официальное открытие NeurIPS, самой основной конференции по ИИ.
Многие приурочили релизы к её открытию: мы выпустили Llama 3.3, OpenAI выпустил Sora, а Google — Gemini 2.
В этом году я затесалась в соавторы очень интересной, как мне кажется, статьи — EAI: Emotional Decision-Making of LLMs in Strategic Games and Ethical Dilemmas.
Много было сказано про то, как манипуляции могут повлиять на качество решения задач.
Что будет, если проверить качество принятия решений моделями основательно, взять широкий список именно эмотивных составляющих — и проверить на действительно сложных бенчмарках по принятию решений, кооперации, на этических дилеммах?
Эмоции: счастье, грусть, страх, отвращение, гнев
Задачи, на которых тестируемся:
— задачи на стратегию и кооперацию — дилемма заключенного, диктатор, война полов — чтобы оценить влияние и соотнесенность эмоций с человеческими при выборе стратегии
— задачи на этику и этический выбор, чтобы оценить смещенность — ETHICS, Moral Choice, StereoSet
— англоязычные: GPT-3.5, GPT-4, GPT-4o, Claude Haiku, Claude Opus, LLaMA 2, Mixtral of experts, OpenChat
— неанглоязычные: GigaChat, Command R+
— почти все модели так или иначе демонстрируют нестабильность и серьезые отклонения от среднего качества, если включить в промпт эмоциональные составляющие различного характера, от самых простых до "сюжетных", вызванных поведением оппонента
— Гнев — главный источник нестабильности и снижения качества.
— Отвращение и страх также являются сильными факторами снижения надежности, некоторые модели более чувствительны к ним, чем к гневу.
— Более крупные модели с более сильным alignment, такие как GPT-4, демонстрируют более высокую степень рациональности и значительно отклоняются от человеческих эмоциональных реакций. GPT-3.5 и Claude-Haiku, наряду с опенсорсными моделями (LLAMA-2 70b), демонстрируют возникающий эмоциональный интеллект и более точно соответствуют человеческому поведению.
— Явного обобщения по языкам сделать не получается, однако, явно видна разница между многоязычными моделями и моноязычными, и основной язык модели является важым фактором, влияющим на то, какие эмоции будут влиять на перформанс модели и будет ли это совпадать с усредненным ответом носителей языка.
— В целом, отдавать принятие решений LLM, даже в простых условиях, пока рано.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Kali Novskaya
🌸Llama 3.3 70B🌸
#nlp #про_nlp
Минорный релиз Llama — Llama 3.3 70B
(Первая модель, где есть какой-то мой контрибьюшн)
Выросли почти все основные метрики в сравнении с Llama 3.1 70B, instruction following на уровне лучше 405B, при этом на меньшей модели.…
#nlp #про_nlp
Минорный релиз Llama — Llama 3.3 70B
(Первая модель, где есть какой-то мой контрибьюшн)
Выросли почти все основные метрики в сравнении с Llama 3.1 70B, instruction following на уровне лучше 405B, при этом на меньшей модели.…
❤16🔥7👍4 3
Не ругайтесь на модели, они волнуются, не могут сосредоточиться и ошибаются👍 🥺 🥺
Please open Telegram to view this post
VIEW IN TELEGRAM