Forwarded from Запрети мне псевдолейблить
🚀 Разбираем решение, которое принесло нашей команде 6-е место в Kaggle-соревновании по обработке данных миссии Ariel
Пост про то, что это вообще за сорева вот тут.
Мы работали с частотными сигналами, которые изначально были очень шумными. Для их сглаживания использовали:
1️⃣ Гауссовский регрессор
2️⃣ Фильтр Савицкого-Голея
Далее ищем границы транзитной зоны планеты. Делаем через простой эмпирический детектор: транзит на графике светимости звезды имеет вид \_/ — яркость падает, когда планета проходит перед звездой, так как часть частотных компонентов теряет интенсивность.
📉 Что мы делали дальше:
Удаляем этапы до и после транзита, чтобы анализировать только изменения светимости в нужный момент.
"Поднимаем" транзит обратно к уровню светимости звезды, чтобы восстановить исходный "пульс звезды". Это важно, чтобы учесть глобальное поведение светимости звезды, которе не очень-то и постоянное.
🔍 Фичи и модели:
На основе изменений яркости между ожидаемыми и наблюдаемыми значениями на заданных частотах извлекали фичи. Эти частоты совпадают с важными таргетами — спектрограммой атмосферы экзопланеты.
Обучаем линейную регрессию глобально для каждого таргета, подбирая оптимальные коэффициенты. В смысле берем все моменты времени для всех транзитов и конкретной частоты и ищем коэффициент подгонки.
Параллельно обучаем CNN, которая анализировала частотные изменения в заданных временных окнах.
Это:
Помогает учитывало локальные особенности спектра и переходов (энергии?) между частотами
Позволяло понять взаимосвязи между соседними частотами, улучшая точность предсказаний.
🔗 Финал:
Смешали (блендили) результаты линейной регрессии и CNN. Затем финальную спектрограмму еще раз сгладили, чтобы убрать артефакты.
💡 Бонус материал: пример 'подъема' спектра на картинке
Пост про то, что это вообще за сорева вот тут.
Мы работали с частотными сигналами, которые изначально были очень шумными. Для их сглаживания использовали:
1️⃣ Гауссовский регрессор
2️⃣ Фильтр Савицкого-Голея
Далее ищем границы транзитной зоны планеты. Делаем через простой эмпирический детектор: транзит на графике светимости звезды имеет вид \_/ — яркость падает, когда планета проходит перед звездой, так как часть частотных компонентов теряет интенсивность.
📉 Что мы делали дальше:
Удаляем этапы до и после транзита, чтобы анализировать только изменения светимости в нужный момент.
"Поднимаем" транзит обратно к уровню светимости звезды, чтобы восстановить исходный "пульс звезды". Это важно, чтобы учесть глобальное поведение светимости звезды, которе не очень-то и постоянное.
🔍 Фичи и модели:
На основе изменений яркости между ожидаемыми и наблюдаемыми значениями на заданных частотах извлекали фичи. Эти частоты совпадают с важными таргетами — спектрограммой атмосферы экзопланеты.
Обучаем линейную регрессию глобально для каждого таргета, подбирая оптимальные коэффициенты. В смысле берем все моменты времени для всех транзитов и конкретной частоты и ищем коэффициент подгонки.
Параллельно обучаем CNN, которая анализировала частотные изменения в заданных временных окнах.
Это:
Помогает учитывало локальные особенности спектра и переходов (энергии?) между частотами
Позволяло понять взаимосвязи между соседними частотами, улучшая точность предсказаний.
🔗 Финал:
Смешали (блендили) результаты линейной регрессии и CNN. Затем финальную спектрограмму еще раз сгладили, чтобы убрать артефакты.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🔥2
Together AI и Agentica team потюнили Qwen3-32B и опенсурсят DeepSWE-Preview агента для разработки
Тюнили с GRPO++ (GRPO с улучшалками из некоторых недавних статей) своей либы https://github.com/agentica-project/rllm
Самое крутое что все дают - веса, датасет, код ну и пайплайн описывают
В датасете данные на использование тулов вызов bash, поиск, файл едитор
https://www.together.ai/blog/deepswe
блог про RLLM
https://pretty-radio-b75.notion.site/rLLM-A-Framework-for-Post-Training-Language-Agents-21b81902c146819db63cd98a54ba5f31
веса
https://huggingface.co/agentica-org/DeepSWE-Preview
датасет на 4.5к семплов
https://huggingface.co/datasets/R2E-Gym/R2E-Gym-Subset
PS проектики делаем и ИИнфу собираем в https://www.tgoop.com/researchim
Тюнили с GRPO++ (GRPO с улучшалками из некоторых недавних статей) своей либы https://github.com/agentica-project/rllm
Самое крутое что все дают - веса, датасет, код ну и пайплайн описывают
В датасете данные на использование тулов вызов bash, поиск, файл едитор
https://www.together.ai/blog/deepswe
блог про RLLM
https://pretty-radio-b75.notion.site/rLLM-A-Framework-for-Post-Training-Language-Agents-21b81902c146819db63cd98a54ba5f31
веса
https://huggingface.co/agentica-org/DeepSWE-Preview
датасет на 4.5к семплов
https://huggingface.co/datasets/R2E-Gym/R2E-Gym-Subset
PS проектики делаем и ИИнфу собираем в https://www.tgoop.com/researchim
👍6❤4
Сегодня я доказал что мы живем в симуляции
Клод Сонет 4 доделал некоторые важные штучки за o3, на которые тот не обращал внимания
Вагон смайликов также был отгружен в код
🪳 🪳 🪳
Клод Сонет 4 доделал некоторые важные штучки за o3, на которые тот не обращал внимания
Вагон смайликов также был отгружен в код
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23🆒6👍3💩1💊1
из SSI уволился Даниэль Гросс (я на самом деле хз кто это)
А Илья теперь гендир SSI
У них есть вычислительная техника кстати.
https://x.com/ilyasut/status/1940802278979690613
А Илья теперь гендир SSI
У них есть вычислительная техника кстати.
https://x.com/ilyasut/status/1940802278979690613
😁11🥴4👍2❤1
Челики которые недавно ллмный RL туда-сюда гоняли, пруверы тренили
щас запустили агента https://www.kimi.com/
РЛьные (пусть и ллмные) делают стартапы и рвутся к бабкам, это хорошо
https://moonshotai.github.io/Kimi-Researcher/
PS а мы проекты делаем и ИИнфу собираем в https://www.tgoop.com/researchim
щас запустили агента https://www.kimi.com/
РЛьные (пусть и ллмные) делают стартапы и рвутся к бабкам, это хорошо
https://moonshotai.github.io/Kimi-Researcher/
PS а мы проекты делаем и ИИнфу собираем в https://www.tgoop.com/researchim
👍4❤2
Короче ребятки, если вы на ютубе в шортсах видели как Владимир Сурдин и Алексей Семихатов разговаривают за всякое науковое, но при этом не могли найти ориг, то это канал https://www.youtube.com/@vselennayaplus
Я вот сам только что нашел
Не то что не мог найти ориг, просто щас впервые решил его найти
Я вот сам только что нашел
Не то что не мог найти ориг, просто щас впервые решил его найти
YouTube
Вселенная Плюс
Где-то в параллельной вселенной физик Алексей Семихатов и астроном Владимир Сурдин беседуют о том, как устроен мир вокруг нас.
И иногда, чтобы разобраться лучше, приглашают представителей других областей знания.
Телеграм-канал проекта "Вселенная Плюс": …
И иногда, чтобы разобраться лучше, приглашают представителей других областей знания.
Телеграм-канал проекта "Вселенная Плюс": …
👍14❤2🔥1💩1
Есть такая головоломка "Баба - это ты" (эххехех)
https://store.steampowered.com/app/736260/Baba_Is_You/
Как я понял там на уровнях есть блоки с которыми надо взаимодействовать (толкать, останавливать, управлять им, победить) чтобы этот уровень пройти до конца. От разных блоков правила мира могут меняться.
По отзывам в стиме ощущается что игра людям заходит и кажется довольно сложной
Выглядит как бенчмарк.
Подключили к ней Клод 4 по MCP.
Клод смог пройти 0 уровень. Как я понимаю там надо было 8 раз направо двинуться.
А больше ничего не смог
Конец
https://fi-le.net/baba/
https://store.steampowered.com/app/736260/Baba_Is_You/
Как я понял там на уровнях есть блоки с которыми надо взаимодействовать (толкать, останавливать, управлять им, победить) чтобы этот уровень пройти до конца. От разных блоков правила мира могут меняться.
По отзывам в стиме ощущается что игра людям заходит и кажется довольно сложной
Выглядит как бенчмарк.
Подключили к ней Клод 4 по MCP.
Клод смог пройти 0 уровень. Как я понимаю там надо было 8 раз направо двинуться.
А больше ничего не смог
Конец
https://fi-le.net/baba/
❤15😁9
Челы собрали мультиагентного бота для генерации cuda кернелов. Пишут что хорошо получилось
Один агент кернелы писал, другой компилил, третий дебагал
Бота не дают. Кернелы дают
https://github.com/Lossfunk/Flash-Kernels
Почитать
https://letters.lossfunk.com/p/how-many-agents-does-it-take-to-beat
Один агент кернелы писал, другой компилил, третий дебагал
Бота не дают. Кернелы дают
https://github.com/Lossfunk/Flash-Kernels
Почитать
https://letters.lossfunk.com/p/how-many-agents-does-it-take-to-beat
❤12👍1
Есть такой проект https://github.com/vosen/ZLUDA
Там челы переносят CUDA на другие гпушки
Я про них чот давно не слышал, думал заглохли.
А оказывается что живы, у них команда удвоилась недавно + начали работу по переносу PhysX
Но пока еще там активная разработка и вряд ли что-то полезное будет работать.
Но было интересно узнать что проект живет
https://vosen.github.io/ZLUDA/blog/zluda-update-q2-2025/
Там челы переносят CUDA на другие гпушки
Я про них чот давно не слышал, думал заглохли.
А оказывается что живы, у них команда удвоилась недавно + начали работу по переносу PhysX
Но пока еще там активная разработка и вряд ли что-то полезное будет работать.
Но было интересно узнать что проект живет
https://vosen.github.io/ZLUDA/blog/zluda-update-q2-2025/
GitHub
GitHub - vosen/ZLUDA: CUDA on non-NVIDIA GPUs
CUDA on non-NVIDIA GPUs. Contribute to vosen/ZLUDA development by creating an account on GitHub.
👍13❤4🔥1
Хм. Соглы.
Го все виброкодировать RL среды
Уже давно этим занимаюсь
Виброкодируем тут https://www.tgoop.com/researchim
Го все виброкодировать RL среды
Уже давно этим занимаюсь
Виброкодируем тут https://www.tgoop.com/researchim
🤣24👍4❤1👎1
Эм. Тут говорят что АИ рисечеры кто делает $10-$100 мультов играет в доту
Верим?
https://analyticsindiamag.com/ai-features/every-single-ai-researcher-making-10-100-million-is-a-dota-2-player/
Верим?
https://analyticsindiamag.com/ai-features/every-single-ai-researcher-making-10-100-million-is-a-dota-2-player/
Analytics India Magazine
‘Every Single AI Researcher Making $10-100 Million is a Dota 2 Player’ | AIM
If you’re wondering what separates a $200,000 AI engineer from a $10 million one, check their Steam profile, not GitHub.
🤔14😁5❤4💩3💯1
Челы из Allen AI сделали бенчмарк по саенсу
Пишешь запрос, там внутри достается контекст из релевантных статеек и по нему моделька отвечает пользователю
Дипсик R1 0528 на 4 месте, хорошая (а главное опенсурсная) моделька
o3 из тестируемых лучшая, тут понятно
https://allenai.org/blog/sciarena
лидерборд
https://sciarena.allen.ai/
Код евала
https://github.com/yale-nlp/SciArena
Данные
https://huggingface.co/datasets/yale-nlp/SciArena
Можно и самим вопросики позадавать и пооценивать
Пишешь запрос, там внутри достается контекст из релевантных статеек и по нему моделька отвечает пользователю
Дипсик R1 0528 на 4 месте, хорошая (а главное опенсурсная) моделька
o3 из тестируемых лучшая, тут понятно
https://allenai.org/blog/sciarena
лидерборд
https://sciarena.allen.ai/
Код евала
https://github.com/yale-nlp/SciArena
Данные
https://huggingface.co/datasets/yale-nlp/SciArena
Можно и самим вопросики позадавать и пооценивать
👍3
В любой момент времени можно скинуть лучший конспект по RLю на русском
https://arxiv.org/abs/2201.09746
https://arxiv.org/abs/2201.09746
arXiv.org
Reinforcement Learning Textbook
This textbook covers principles behind main modern deep reinforcement learning algorithms that achieved breakthrough results in many domains from game AI to robotics. All required theory is...
❤17👍6🔥3
Кстати тоже все хотел сделать как-нить подборку РЛ челов и стартапов. Все руки не дойдут
Пока можно тут почитать
https://www.chemistry.vc/post/rl-reigns-supreme
Из тех что выше вижу часто мелькают Thinking Machines и OpenPipe
PS высвобождаем и делаем потихоньку в https://www.tgoop.com/researchim
Пока можно тут почитать
https://www.chemistry.vc/post/rl-reigns-supreme
Из тех что выше вижу часто мелькают Thinking Machines и OpenPipe
PS высвобождаем и делаем потихоньку в https://www.tgoop.com/researchim
🔥4❤2
HF выложили thinking модельку SmolLM3-3B и рассказывают как тюнили. Русского в языках нету
https://huggingface.co/HuggingFaceTB/SmolLM3-3B
https://huggingface.co/blog/smollm3
Думаю самое интересное это почитать про сам трен
https://huggingface.co/HuggingFaceTB/SmolLM3-3B
https://huggingface.co/blog/smollm3
Думаю самое интересное это почитать про сам трен
huggingface.co
SmolLM3: smol, multilingual, long-context reasoner
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥7