Please open Telegram to view this post
VIEW IN TELEGRAM
❤18😁8🏆3💯2🤣1
Еще парочка свежих чатгпт ресечей
ии + финтех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_Fintech_research.md
ии + агротех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_AgriTech_research.md
Там и другие в репозитории имеются
И не забывайте заглядывать в https://www.tgoop.com/researchim где собираем все по ИИшечке и проектики делаем
ии + финтех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_Fintech_research.md
ии + агротех
https://github.com/researchim-ai/state-of-ai/blob/main/AI_AgriTech_research.md
Там и другие в репозитории имеются
И не забывайте заглядывать в https://www.tgoop.com/researchim где собираем все по ИИшечке и проектики делаем
GitHub
state-of-ai/AI_Fintech_research.md at main · researchim-ai/state-of-ai
По возможности актуальная информация по ИИ + ресерчи от ChatGPT - researchim-ai/state-of-ai
👍8❤2🔥2
Выступление Ричарда Саттона про эру экспиренса и его видением будущего иишки и рля
https://www.youtube.com/live/f9KDMFZqu_Y
https://www.youtube.com/live/f9KDMFZqu_Y
YouTube
NUS120 Distinguished Speaker Series | Professor Richard Sutton
About NUS120
The National University of Singapore celebrates its 120th anniversary in 2025, commemorating a legacy, forged over generations, of excellence, innovation and service.
As Singapore’s first higher education institution and its flagship university…
The National University of Singapore celebrates its 120th anniversary in 2025, commemorating a legacy, forged over generations, of excellence, innovation and service.
As Singapore’s first higher education institution and its flagship university…
🔥10❤3👍1
А вот и опенсурс ризонер от Мистраля
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что послевархаммер 40к может начать тупить
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что после
🔥11❤2👍1
Нам предлагают не просто предсказывать следующий токен, а еще поразмышлять перед этим. Reinforced Pre-Training (RPT)
Есть последовательность токенов x_{<t}, моделька генерит рассуждение (цепочку токенов) c_t и еще конечную цепочку (там может быть один или несколько токенов) y_t.
Смотрим, чтобы y_t было точным префиксом истинного продолжения из данных. Если да, то ревард 1, если нет, то 0.
В качестве датасета для тюна взяли OmniMATH (4.4к семплов с ответами). Нарезали на контекст и продолжения с использованием фильтра по энтропии прогоняя через прокси модельку R1 дистил 1.5B модельку.
Как я понимаю: берут каждый пример из трейна, прогоняют через прокси 1.5B модельку, для каждого следующего токена берут топ 16 самых вероятных, если энтропия на них больше порога (его не уточнили), то здесь будут тюнить. (наверное делают перенормировку по топ 16 токенам и нормализацию по энтропии и сверяют с порогом)
На этом тюнили Deepseek R1 Distill 14B с GRPO.
Авторы пишут что моделька потюненая RPT больше использует слов присущим построению гипотез (probably, maybe, assume) и логическому выводу (therefore, logically, conclude), чем базовая моделька. При этом меньше раскладывает задачи на подзадачи.
Вероятно потому, что обычно в ризонинге учим раскладывать сложные задачи на простые шаги. А при RPT видать учится "рассуждать" наперед.
Ну и такой подход вроде докидывает.
Так понял. В целом показалось интересным. Увидим будут ли раскручивать подход и больше экспериментов надо
Reinforcement Pre-Training
https://arxiv.org/abs/2506.08007
https://www.alphaxiv.org/ru/overview/2506.08007
PS кстати заходите в https://www.tgoop.com/researchim мы там ИИнфу собираем и теперь уже много всяких проектиков делаем
Есть последовательность токенов x_{<t}, моделька генерит рассуждение (цепочку токенов) c_t и еще конечную цепочку (там может быть один или несколько токенов) y_t.
Смотрим, чтобы y_t было точным префиксом истинного продолжения из данных. Если да, то ревард 1, если нет, то 0.
В качестве датасета для тюна взяли OmniMATH (4.4к семплов с ответами). Нарезали на контекст и продолжения с использованием фильтра по энтропии прогоняя через прокси модельку R1 дистил 1.5B модельку.
Как я понимаю: берут каждый пример из трейна, прогоняют через прокси 1.5B модельку, для каждого следующего токена берут топ 16 самых вероятных, если энтропия на них больше порога (его не уточнили), то здесь будут тюнить. (наверное делают перенормировку по топ 16 токенам и нормализацию по энтропии и сверяют с порогом)
На этом тюнили Deepseek R1 Distill 14B с GRPO.
Авторы пишут что моделька потюненая RPT больше использует слов присущим построению гипотез (probably, maybe, assume) и логическому выводу (therefore, logically, conclude), чем базовая моделька. При этом меньше раскладывает задачи на подзадачи.
Вероятно потому, что обычно в ризонинге учим раскладывать сложные задачи на простые шаги. А при RPT видать учится "рассуждать" наперед.
Ну и такой подход вроде докидывает.
Так понял. В целом показалось интересным. Увидим будут ли раскручивать подход и больше экспериментов надо
Reinforcement Pre-Training
https://arxiv.org/abs/2506.08007
https://www.alphaxiv.org/ru/overview/2506.08007
PS кстати заходите в https://www.tgoop.com/researchim мы там ИИнфу собираем и теперь уже много всяких проектиков делаем
👍11🤣7🤔2❤1
Биологические на месте?
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.tgoop.com/researchim
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
Boltz-2 — это «универсальный движок» именно для задач структурной биологии и дизайна лекарств
Что делает?
- Строит форму белка, РНК/ДНК и лигандов в одном комплексе.
- Сразу оценивает силу связывания (Ki/Kd/IC50-подобную) — т.е. подсказывает, какая молекула будет держаться крепче.
- Всё это за ~20 с на одной видеокарте, тогда как классический FEP тратит часы-дни.
Чем полезен на практике?
- Быстрый фильтр миллионов соединений в виртуальном скрининге.
- Точная ранжировка близких аналогов на стадии hit-to-lead.
- Генерация новых молекул вместе с GFlowNet — модель сама предлагает, что синтезировать.
Boltz-2 — мощный, быстрый и открытый инструмент именно для 3-D структур и связывания
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.tgoop.com/researchim
1🔥16❤2👍1
Если вы хотели узнать побольше про TPU (это которые в Гугле например используют) и чем они от GPU отличаются, то вот тут интересно написали
https://henryhmko.github.io/posts/tpu/tpu.html
https://henryhmko.github.io/posts/tpu/tpu.html
🔥10👍6❤2
Я там погенерил с o3 примеров на куда и opencl в учебных целях, пока не супер продвинутых. Под линуксом собирается.
Для куды нужна нвидия видюшка. OpenCL на всем должно запуститься.
Вероятно буду со временем еще наполнять https://github.com/researchim-ai/gpu-school
А проектики делаем в https://www.tgoop.com/researchim
Для куды нужна нвидия видюшка. OpenCL на всем должно запуститься.
Вероятно буду со временем еще наполнять https://github.com/researchim-ai/gpu-school
А проектики делаем в https://www.tgoop.com/researchim
GitHub
GitHub - researchim-ai/gpu-school
Contribute to researchim-ai/gpu-school development by creating an account on GitHub.
🔥9👍3❤1
Как насчет
Meta-Stable Entangled Quantum-GAN Swarm: Blockchain-Anchored Hyperdimensional Reinforcement Learning for Holographic Sector Rotation across Exo-Metaverse Markets
Работа исследует гибридный мульти-агентный подход, сочетающий квантовые вычисления, гипермерное RL и генеративные модели, — для предсказания, планирования и автоматического ротационного перераспределения капитала между «физическими» секторами фондового рынка и их цифровыми «двойниками» в метавселенных.
Если напишете - меня в соавторы пж😎
Meta-Stable Entangled Quantum-GAN Swarm: Blockchain-Anchored Hyperdimensional Reinforcement Learning for Holographic Sector Rotation across Exo-Metaverse Markets
Работа исследует гибридный мульти-агентный подход, сочетающий квантовые вычисления, гипермерное RL и генеративные модели, — для предсказания, планирования и автоматического ротационного перераспределения капитала между «физическими» секторами фондового рынка и их цифровыми «двойниками» в метавселенных.
Если напишете - меня в соавторы пж
Please open Telegram to view this post
VIEW IN TELEGRAM
😈12🔥4🥰3😁2
Forwarded from Vikhr models
QVikhr-3-4B-Instruction
Еще одна модель на базе Qwen 3. Тесты производительности подтверждают значительные улучшения модели. В Ru Arena General, QVikhr-3-4B-Instruction получила оценку 78.2, что существенно превосходит результат базовой модели Qwen3-4B (64.8).
🔗 Карточка модели: https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction-GGUF
⚖️ Лицензия: apache-2.0
👥 Авторы: @LakoMoorDev @nlpwanderer
Еще одна модель на базе Qwen 3. Тесты производительности подтверждают значительные улучшения модели. В Ru Arena General, QVikhr-3-4B-Instruction получила оценку 78.2, что существенно превосходит результат базовой модели Qwen3-4B (64.8).
🔗 Карточка модели: https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction
🔗 GGUF (скоро): https://huggingface.co/Vikhrmodels/QVikhr-3-4B-Instruction-GGUF
⚖️ Лицензия: apache-2.0
👥 Авторы: @LakoMoorDev @nlpwanderer
👍11❤5🔥5👎1💩1🌚1
Если добавить 3 полоски на картинку, то влмки могут апнуть метрички на визуальном поиске, подсчете, на описании сцены
Еще надо в промтик прописать, что сканируй картинку по горизонтальным линиям
Тестились на синтетике и на реальных данных. На синтетике получше бустит
Visual Structures Helps Visual Reasoning: Addressing the Binding Problem in VLMs
https://arxiv.org/abs/2506.22146
https://www.alphaxiv.org/ru/overview/2506.22146v1
Еще надо в промтик прописать, что сканируй картинку по горизонтальным линиям
Тестились на синтетике и на реальных данных. На синтетике получше бустит
Visual Structures Helps Visual Reasoning: Addressing the Binding Problem in VLMs
https://arxiv.org/abs/2506.22146
https://www.alphaxiv.org/ru/overview/2506.22146v1
👍9❤4🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁32👍5🔥5