Привет! 👋
Меня зовут Михаил Крыжановский, и вот немного обо мне:
- Предприниматель, у которого иногда получается трансформировать идеи в работающие проекты.
- Python-разработчик с опытом создания надёжных и достаточно сложных решений.
- ML-разработчик, помогающий внедрять машинное обучение для решения реальных бизнес-задач.
- Автор Machine Learning Podcast, в котором я общаюсь с профессионалами из индустрии Искусственного Интеллекта.
- Автор курсов на Stepik, обучающих ведению IT-проектов на примере Telegram-ботов:
- Телеграм-боты на Python и aiogram
- Телеграм-боты на Python: продвинутый уровень
- Автор телеграм-канала Стать специалистом по машинному обучению.
Я мог бы быть полезен:
- Рекламодателям (если ваша реклама соответствует тематике канала и подкаста или близка к ним).
- Предпринимателям, которые не знают нужен ли в их бизнесе ML и если нужен, то какой.
- Специалистам по ML, желающим поделиться интересными мыслями в подкасте.
- Начинающим python-разработчикам, которые хотят составить эффективный план обучения нужному стеку технологий.
- Продолжающим python-разработчикам, которым требуется быстрый вход в более продвинутые инструменты (реляционные СУБД, Docker, продвинутый Git, очереди, поисковые движки и т.п.).
- Разработчикам, которые хотят поменять свою сферу на ML.
- Разработчикам телеграм-ботов, столкнувшимся с проблемами роста проекта.
- Организаторам конференций и авторам подкастов, если требуются интересные доклады и cool story 🙂
И, в целом, открыт к разным предложениям, потому что считаю важным создавать новые и поддерживать старые связи в комьюнити инженеров и/или предпринимателей.
Связаться со мной можно в Телеграм (@kmsint) и по почте ([email protected])
Меня зовут Михаил Крыжановский, и вот немного обо мне:
- Предприниматель, у которого иногда получается трансформировать идеи в работающие проекты.
- Python-разработчик с опытом создания надёжных и достаточно сложных решений.
- ML-разработчик, помогающий внедрять машинное обучение для решения реальных бизнес-задач.
- Автор Machine Learning Podcast, в котором я общаюсь с профессионалами из индустрии Искусственного Интеллекта.
- Автор курсов на Stepik, обучающих ведению IT-проектов на примере Telegram-ботов:
- Телеграм-боты на Python и aiogram
- Телеграм-боты на Python: продвинутый уровень
- Автор телеграм-канала Стать специалистом по машинному обучению.
Я мог бы быть полезен:
- Рекламодателям (если ваша реклама соответствует тематике канала и подкаста или близка к ним).
- Предпринимателям, которые не знают нужен ли в их бизнесе ML и если нужен, то какой.
- Специалистам по ML, желающим поделиться интересными мыслями в подкасте.
- Начинающим python-разработчикам, которые хотят составить эффективный план обучения нужному стеку технологий.
- Продолжающим python-разработчикам, которым требуется быстрый вход в более продвинутые инструменты (реляционные СУБД, Docker, продвинутый Git, очереди, поисковые движки и т.п.).
- Разработчикам, которые хотят поменять свою сферу на ML.
- Разработчикам телеграм-ботов, столкнувшимся с проблемами роста проекта.
- Организаторам конференций и авторам подкастов, если требуются интересные доклады и cool story 🙂
И, в целом, открыт к разным предложениям, потому что считаю важным создавать новые и поддерживать старые связи в комьюнити инженеров и/или предпринимателей.
Связаться со мной можно в Телеграм (@kmsint) и по почте ([email protected])
Как договаривались, друзья! Новый выпуск с психологом Николаем Додоновым уже в эфире!
Николай профессиональный психолог, член ассоциации когнитивно-поведенческой психологии, автор популярных книг по психологии, привычкам и эффективности управления делами. В подкасте мы поговорим о том как страхи могут управлять нами и мешать в достижении целей. В том числе финансовых. Обсудим почему одинаковый уровень хард-скиллов не гарантирует одинаковый уровень дохода. Откуда берутся страхи и всегда ли они оправданы. Что такое модель отношений и как она влияет на принятие нами решений. Почему нам может быть тревожно, когда всё хорошо. Как мы сами себе создаём проблемы с заработком. Как разрубить классический гордиев узел отсутствия опыта для работы, без которого не получить работу для опыта. Почему важно не просто писать код, решающий конкретную задачу, но и понимать, как решение этой задачи влияет на общую систему, в целом. Почему мы часто всё понимаем, но ничего не делаем. Почему кажется, что знаний всегда недостаточно. Почему сравнивать себя с другими и даже с самим собой - это не самый эффективный путь понять свою ценность. Поехали!
https://mlpodcast.mave.digital/ep-69
Николай профессиональный психолог, член ассоциации когнитивно-поведенческой психологии, автор популярных книг по психологии, привычкам и эффективности управления делами. В подкасте мы поговорим о том как страхи могут управлять нами и мешать в достижении целей. В том числе финансовых. Обсудим почему одинаковый уровень хард-скиллов не гарантирует одинаковый уровень дохода. Откуда берутся страхи и всегда ли они оправданы. Что такое модель отношений и как она влияет на принятие нами решений. Почему нам может быть тревожно, когда всё хорошо. Как мы сами себе создаём проблемы с заработком. Как разрубить классический гордиев узел отсутствия опыта для работы, без которого не получить работу для опыта. Почему важно не просто писать код, решающий конкретную задачу, но и понимать, как решение этой задачи влияет на общую систему, в целом. Почему мы часто всё понимаем, но ничего не делаем. Почему кажется, что знаний всегда недостаточно. Почему сравнивать себя с другими и даже с самим собой - это не самый эффективный путь понять свою ценность. Поехали!
https://mlpodcast.mave.digital/ep-69
1 выпуск 6 сезона
#069 MLSpec Николай Додонов. Психология страхов и при чём здесь финансы — Подкаст «Machine Learning Podcast»
Встречайте специальный выпуск нового сезона со специальным гостем - Николаем Додоновым. Николай профессиональный психолог, член ассоциации когнитивно-поведенческой психологии, автор популярных книг по психологии, привычкам и эффективности управления
Audio
Николай Додонов. Психология страхов и при чём здесь финансы.
Голосом Володарского: "Мемы про DeepSeek заполонили всю планету!".
Кстати, кто-нибудь уже клонировал его голос и начал нейроозвучку? Надо бы загуглить или самому сделать.
Кстати, кто-нибудь уже клонировал его голос и начал нейроозвучку? Надо бы загуглить или самому сделать.
Больше подкастов богу подкастов! Буквально недавно стартанул новый подкаст, основная тема которого ИИ в здравоохранении. Первый выпуск уже можно послушать, а так как тема широкая, очень скоро ожидаются и следующие!
С интересом послушал о становлении компании Webiomed, которая занимается оцифровкой медицинских карт и предсказаниями потенциальных проблем у пациентов на их основе, а на текущий момент является лидером в России по этому направлению. Как и практически у любого бизнеса там была куча сложностей и препонов, но настойчивость контрибьюторов (именно в моменты, когда это ещё мало кому было надо) сделала их настолько узнаваемыми в профессиональном сообществе, что когда сложились благоприятные условия, вопросов с кем работать ни у кого не возникло. Поучительная история о настойчивости!
С интересом послушал о становлении компании Webiomed, которая занимается оцифровкой медицинских карт и предсказаниями потенциальных проблем у пациентов на их основе, а на текущий момент является лидером в России по этому направлению. Как и практически у любого бизнеса там была куча сложностей и препонов, но настойчивость контрибьюторов (именно в моменты, когда это ещё мало кому было надо) сделала их настолько узнаваемыми в профессиональном сообществе, что когда сложились благоприятные условия, вопросов с кем работать ни у кого не возникло. Поучительная история о настойчивости!
Яндекс Музыка
ИИ в здравоохранении
Подкаст о том как технологии искусственного интеллекта меняют здравоохранение России. • Подкаст • 31 подписчик
Более полный и подробный курс по MLOps здесь. Он даже более структурированный и менее дёрганный, чем курс, который читал Павел Кикин (я про него писал здесь), который тоже довольно неплох. На самом деле очень полезно не только для специалистов из ML, но и для питонистов вообще. Подходы к ведению ML-проекта очень во многом совпадают с подходами в бэкэнд-разработке, потому что, по сути, оттуда и пришли.
YouTube
1. Что такое исследование
Несколько лет назад в одном из докладов небезызвестного Григория Петрова я увидел эту картинку. Сделал себе заметку в голове - разобраться, что вообще происходило, потому что развитие инструментов не бывает в вакууме. Это всегда ответы на какие-то вызовы, а значит, через инструменты можно лучше понять с какими задачами сталкивалось сообщество python-разработчиков.
Ну, вот, в курсе по MLOps, про который я написал в предыдущем посте, наконец-то попалась лекция с неплохим историческим экскурсом в Python packaging.
Как же долго мы росли до
Ну, вот, в курсе по MLOps, про который я написал в предыдущем посте, наконец-то попалась лекция с неплохим историческим экскурсом в Python packaging.
Как же долго мы росли до
uv
...Правило бейзлайна
Из общения со многими начинающими ML-специалистами заметил одну общую особенность. Они обычно не знают с чего начать. Далеко не во всех компаниях существует культура ведения DS-проектов и такие специалисты нанимаются, чтобы хоть что-то делать с помощью ML. Типа, ты ж датасайентист? Ну, вот, и разбирайся! И всё было бы ничего, если бы у такого специалиста был соответствующий опыт работы с сильными командами и чёткой структурой, но мы же про начинающих, да?
Так вот, садится такой начинающий специалист думать, чего бы такого датасайентистского поделать и начинает, например, фичи придумывать. Или данные чистить. Или модели разные перебирать. Или замки нейросетевые строить...
Но начинать надо не с этого. Начинать надо с того, чтобы разобраться как всё работает сейчас. Раз компания может позволить нанять себе датасайентиста-машинлёрнера, значит, как-то деньги она уже зарабатывает и как-то задачи решает. И когда вы захотите для решения определённой задачи взять что-то ML-ное, вам нужно будет сравнивать ваше решение с тем, что уже было. Чтобы что-то улучшать, нужно, чтобы было, что улучшать.
Зачастую в компаниях уже есть какие-то решения, основанные на эвристиках (правилах). Вот, в первую очередь, и нужно разобраться, что это за решения и как они оцениваются, а уже затем пытаться строить ML-пайплайны. Вполне может оказаться так, что эвристики работают хорошо и в данной задаче ML вообще не нужен. Это тоже хороший и достаточно ценный результат. Если вы его хорошо опишете и сохраните, это поможет не тратить ресурсы в будущем на те же исследования, что провели вы. А как говорится, рубль сэкономленный, что рубль заработанный.
А что делать, если задача стоит, а никакого решения для неё ещё вообще не было? Начальнику просто кажется, что надо задачу решить с помощью ИИ, а то перед пацанами стыдно без ИИ. Здесь тоже нужно какое-то решение, от которого в дальнейшем можно было бы оттолкнуться. Опять нужно что-то, что можно улучшать. И тут на помощь приходит такой термин как бейзлайн. Какое-то базовое решение с самым простым алгоритмом. Тупо, какая-нибудь линейная или логистическая регрессия. Во-первых, сразу ИИ в компании появится (уже не так неудобно перед пацанами), а во-вторых, такое решение, возможно, тоже окажется хорошим, если до этого никакого другого не было. Ну, а, в-третьих, последующие решения будет с чем сравнивать.
Из общения со многими начинающими ML-специалистами заметил одну общую особенность. Они обычно не знают с чего начать. Далеко не во всех компаниях существует культура ведения DS-проектов и такие специалисты нанимаются, чтобы хоть что-то делать с помощью ML. Типа, ты ж датасайентист? Ну, вот, и разбирайся! И всё было бы ничего, если бы у такого специалиста был соответствующий опыт работы с сильными командами и чёткой структурой, но мы же про начинающих, да?
Так вот, садится такой начинающий специалист думать, чего бы такого датасайентистского поделать и начинает, например, фичи придумывать. Или данные чистить. Или модели разные перебирать. Или замки нейросетевые строить...
Но начинать надо не с этого. Начинать надо с того, чтобы разобраться как всё работает сейчас. Раз компания может позволить нанять себе датасайентиста-машинлёрнера, значит, как-то деньги она уже зарабатывает и как-то задачи решает. И когда вы захотите для решения определённой задачи взять что-то ML-ное, вам нужно будет сравнивать ваше решение с тем, что уже было. Чтобы что-то улучшать, нужно, чтобы было, что улучшать.
Зачастую в компаниях уже есть какие-то решения, основанные на эвристиках (правилах). Вот, в первую очередь, и нужно разобраться, что это за решения и как они оцениваются, а уже затем пытаться строить ML-пайплайны. Вполне может оказаться так, что эвристики работают хорошо и в данной задаче ML вообще не нужен. Это тоже хороший и достаточно ценный результат. Если вы его хорошо опишете и сохраните, это поможет не тратить ресурсы в будущем на те же исследования, что провели вы. А как говорится, рубль сэкономленный, что рубль заработанный.
А что делать, если задача стоит, а никакого решения для неё ещё вообще не было? Начальнику просто кажется, что надо задачу решить с помощью ИИ, а то перед пацанами стыдно без ИИ. Здесь тоже нужно какое-то решение, от которого в дальнейшем можно было бы оттолкнуться. Опять нужно что-то, что можно улучшать. И тут на помощь приходит такой термин как бейзлайн. Какое-то базовое решение с самым простым алгоритмом. Тупо, какая-нибудь линейная или логистическая регрессия. Во-первых, сразу ИИ в компании появится (уже не так неудобно перед пацанами), а во-вторых, такое решение, возможно, тоже окажется хорошим, если до этого никакого другого не было. Ну, а, в-третьих, последующие решения будет с чем сравнивать.
Media is too big
VIEW IN TELEGRAM
Вышел новый ролик от Яндекса, в котором перечисляются некоторые достижения компании, начиная от Поиска, нейросетей, маршрутизации и заканчивая рекордом по сборке кубика Рубика. Небольшое уточнение: про сам рекорд там не было, но была отсылка к нему, которая и заставила пойти почитать. Оказывается, что Александр Кротов — инженер, который построил робота, установившего мировой рекорд по сборке Кубика Рубика. Причем сделал он это своими руками и из подручных материалов. Теперь я знаю больше о спидкубинге 🙂
У Евгения Разинкова (а я продолжаю его считать одним из лучших преподавателей, лекции которого есть в открытом доступе, нашедшего идеальный баланс между сложностью, фундаментальными основами и хайповыми направлениями в ML) стартует продвинутая часть школы 17-го февраля. Вот здесь рассказ Евгения о плане обучения, а ниже будет репост с условиями.
YouTube
AI-школа: DL & Transformers. 17.02.2025
Advanced-часть онлайн-школы по AI: с 17 февраля 2025.
Реигстрация:
https://razinkov.ai/school
Подпишитесь на телеграм-канал с анонсами стримов:
https://www.tgoop.com/razinkov_ai
Реигстрация:
https://razinkov.ai/school
Подпишитесь на телеграм-канал с анонсами стримов:
https://www.tgoop.com/razinkov_ai
Forwarded from razinkov.ai
Всем привет!
17 февраля у нас начинается продвинутая часть AI-школы. Она будет посвящена нейронным сетям: немного MLP для понимания основ, а потом CNN (VGG, ResNet, UNet) и много трансформеров (encoder-decoder для задачи машинного перевода, ViT (Vision Transformer) и языковые модели). Всё реализуем с нуля на PyTorch.
Курсы продвинутой части:
– AI: от MLP до языковых моделей (основной курс, теория и практика)
Дополнительные курсы (включены в стоимость):
– Math for AI
– Decision making in AI
– MLOps
Подробности и отзывы здесь: https://razinkov.ai/school/about
На этом стриме рассказывал, как устроена AI-школа:
https://youtube.com/live/ii4H-KZ1m3k?feature=share
Стоимость::
Advanced-часть при полной оплате: 112 000 рублей (помесячно: 17000 в месяц, 7 месяцев).
В любой момент можно отказаться и вернуть деньги за оставшиеся месяцы. Если школа не понравится, то можно вернуть деньги и за последний прошедший месяц.
Зарегистрироваться можно по ссылке:
razinkov.ai/school
Приглашаем)
17 февраля у нас начинается продвинутая часть AI-школы. Она будет посвящена нейронным сетям: немного MLP для понимания основ, а потом CNN (VGG, ResNet, UNet) и много трансформеров (encoder-decoder для задачи машинного перевода, ViT (Vision Transformer) и языковые модели). Всё реализуем с нуля на PyTorch.
Курсы продвинутой части:
– AI: от MLP до языковых моделей (основной курс, теория и практика)
Дополнительные курсы (включены в стоимость):
– Math for AI
– Decision making in AI
– MLOps
Подробности и отзывы здесь: https://razinkov.ai/school/about
На этом стриме рассказывал, как устроена AI-школа:
https://youtube.com/live/ii4H-KZ1m3k?feature=share
Стоимость::
Advanced-часть при полной оплате: 112 000 рублей (помесячно: 17000 в месяц, 7 месяцев).
В любой момент можно отказаться и вернуть деньги за оставшиеся месяцы. Если школа не понравится, то можно вернуть деньги и за последний прошедший месяц.
Зарегистрироваться можно по ссылке:
razinkov.ai/school
Приглашаем)
Об интуиции инженера и важности экспериментов
У меня на интуицию строго материалистический взгляд. Да, работает она иногда как магия, когда готовые ответы всплывают в голове сами по себе без предварительных размышлений, в виде иногда ярких, а иногда смутных ощущений. Но я думаю, что никакой магии за этим не стоит, а стоит работа мозга, скрытая от нашего сознания, но обусловленная прошлым опытом. И чем больше было опыта, чем более структурированный был этот опыт, тем лучше работает интуиция.
Как и большие языковые модели мозг может генерировать ответы и эти ответы тем достовернее, чем более достоверны предпосылки для генерации. Это как при обучении LLM их заставляют больше работать с достоверными источниками (с энциклопедиями, научными статьями, википедией, монографиями и т.п.), чтобы на инференсе уменьшить количество фантазий и галлюцинаций, увеличивая при этом качество ответов. Вот, и качество генерируемых мозгом ответов можно повысить, если в основу таких генераций заложить достоверные, логически непротиворечивые "кирпичики", согласующиеся с наблюдениями в реальном мире.
А что обычно даёт достоверные знания о мире? Эксперименты. Желательно, конечно, методологически грамотно построенные, но даже эксперименты с неидеальной методологией всё равно лучше непроверенных фактов, эмоционально заряженных мнений ноунеймов из интернета, ангажированных статей и так далее. И так как мы здесь с вами про ML, то, в первую очередь я и пишу про важность экспериментов, применительно к работе в сфере ML. Но вообще, рекомендация в этом посте универсальная и позволяет построить более прочную картину мира, чем бы вы не занимались. Под прочностью я буду понимать способность картины мира непротиворечиво объяснять наблюдаемые явления, а также обладать предсказательной силой.
Года три назад я смотрел интервью со Славой Марлоу (это который музыку Моргенштерну писал на пике его популярности), где меня поразила работоспособность и целеустремлённость Славы. Он не просто хотел научиться писать музыку, он хотел стать лучшим в этом. И большую часть времени он занимался тем, что изучал как работают программы для создания музыки и ставил с их помощью эксперименты. Помню, тогда показали YouTube-канал Славы, где были сотни роликов по созданию разных музыкальных пассажей. Слава однозначно стал профессионалом в создании электронной музыки и у него выработалось чутьё на то, какая музыка нужна слушателю и имеет шансы стать популярной. И когда Слава попал в нужную среду, он сумел раскрыть свой потенциал, наработанный за годы экспериментов до этого.
Когда меня спрашивают как стать специалистом в ML, я часто отвечаю, что нужно просто много работать с данными. В целом, с любыми. Нужно провести достаточно много экспериментов, изучая статистические закономерности, пробовать разные подходы, анализировать их эффективность и делать выводы. Понимание и интуиция приходят не от чтения статей или просмотра курсов (хотя это, конечно, полезно), а от практики. Интуиция формируется тогда, когда вы многократно проходите через процесс постановки гипотезы, её проверки и анализа результатов.
Я видел множество примеров, когда люди, начав изучать ML, застревали на теории, перечитывая одни и те же или похожие книги и смотря бесконечные видео на ютубе. Но реальный прорыв случается, когда начинаешь работать руками: крутить данные, строить модели, анализировать результаты, отлаживать код. Чем больше реальных задач вы решаете, даже многократно решённых уже кем-то до вас, тем более уверенно будете ориентироваться в новой информации, потому что у вас появятся личные зацепки в памяти - реальные кейсы, с которыми вы сталкивались.
Я уже давно понял, что сколько бы я не изучал теорию и как хорошо не представлял бы себе процесс, всё равно я столкнусь на практике с тем, что код или сервис ведёт себя не так, как я от него ожидаю. Но чем больше я сталкиваюсь с таким неожиданным поведением, тем меньше в дальнейшем случается такого неожиданного поведения, потому что каждый практический эксперимент улучшает мою модель мира, делая её прочнее.
У меня на интуицию строго материалистический взгляд. Да, работает она иногда как магия, когда готовые ответы всплывают в голове сами по себе без предварительных размышлений, в виде иногда ярких, а иногда смутных ощущений. Но я думаю, что никакой магии за этим не стоит, а стоит работа мозга, скрытая от нашего сознания, но обусловленная прошлым опытом. И чем больше было опыта, чем более структурированный был этот опыт, тем лучше работает интуиция.
Как и большие языковые модели мозг может генерировать ответы и эти ответы тем достовернее, чем более достоверны предпосылки для генерации. Это как при обучении LLM их заставляют больше работать с достоверными источниками (с энциклопедиями, научными статьями, википедией, монографиями и т.п.), чтобы на инференсе уменьшить количество фантазий и галлюцинаций, увеличивая при этом качество ответов. Вот, и качество генерируемых мозгом ответов можно повысить, если в основу таких генераций заложить достоверные, логически непротиворечивые "кирпичики", согласующиеся с наблюдениями в реальном мире.
А что обычно даёт достоверные знания о мире? Эксперименты. Желательно, конечно, методологически грамотно построенные, но даже эксперименты с неидеальной методологией всё равно лучше непроверенных фактов, эмоционально заряженных мнений ноунеймов из интернета, ангажированных статей и так далее. И так как мы здесь с вами про ML, то, в первую очередь я и пишу про важность экспериментов, применительно к работе в сфере ML. Но вообще, рекомендация в этом посте универсальная и позволяет построить более прочную картину мира, чем бы вы не занимались. Под прочностью я буду понимать способность картины мира непротиворечиво объяснять наблюдаемые явления, а также обладать предсказательной силой.
Года три назад я смотрел интервью со Славой Марлоу (это который музыку Моргенштерну писал на пике его популярности), где меня поразила работоспособность и целеустремлённость Славы. Он не просто хотел научиться писать музыку, он хотел стать лучшим в этом. И большую часть времени он занимался тем, что изучал как работают программы для создания музыки и ставил с их помощью эксперименты. Помню, тогда показали YouTube-канал Славы, где были сотни роликов по созданию разных музыкальных пассажей. Слава однозначно стал профессионалом в создании электронной музыки и у него выработалось чутьё на то, какая музыка нужна слушателю и имеет шансы стать популярной. И когда Слава попал в нужную среду, он сумел раскрыть свой потенциал, наработанный за годы экспериментов до этого.
Когда меня спрашивают как стать специалистом в ML, я часто отвечаю, что нужно просто много работать с данными. В целом, с любыми. Нужно провести достаточно много экспериментов, изучая статистические закономерности, пробовать разные подходы, анализировать их эффективность и делать выводы. Понимание и интуиция приходят не от чтения статей или просмотра курсов (хотя это, конечно, полезно), а от практики. Интуиция формируется тогда, когда вы многократно проходите через процесс постановки гипотезы, её проверки и анализа результатов.
Я видел множество примеров, когда люди, начав изучать ML, застревали на теории, перечитывая одни и те же или похожие книги и смотря бесконечные видео на ютубе. Но реальный прорыв случается, когда начинаешь работать руками: крутить данные, строить модели, анализировать результаты, отлаживать код. Чем больше реальных задач вы решаете, даже многократно решённых уже кем-то до вас, тем более уверенно будете ориентироваться в новой информации, потому что у вас появятся личные зацепки в памяти - реальные кейсы, с которыми вы сталкивались.
Я уже давно понял, что сколько бы я не изучал теорию и как хорошо не представлял бы себе процесс, всё равно я столкнусь на практике с тем, что код или сервис ведёт себя не так, как я от него ожидаю. Но чем больше я сталкиваюсь с таким неожиданным поведением, тем меньше в дальнейшем случается такого неожиданного поведения, потому что каждый практический эксперимент улучшает мою модель мира, делая её прочнее.
Поэтому, если вы хотите развить инженерную интуицию в ML (или в любой другой области), главный совет - экспериментируйте. Чем больше гипотез вы проверите, чем больше неожиданных для себя открытий сделаете, тем прочнее будет ваше понимание предмета. И однажды, в нужный момент, ваш мозг сам подскажет вам правильное решение - без лишних размышлений, просто потому что за этим будет стоять накопленный вами опыт.
Договорились со Степиком провести мастер-класс по Докеру. Я хочу сосредоточиться не на том, как докером пользоваться, об этом уже тысячи гайдов, я хочу поговорить о том, для каких задач он вообще нужен и почему должен быть в стеке любого разработчика.
У меня очень частая претензия к документации большинства инструментов заключается в том, что она (эта самая документация) хорошо может отвечать на вопрос "Как?" и почти не отвечает на вопрос "Зачем?". Появление любого инструмента всегда чем-то обусловлено и является ответом на вызовы времени. Немного разобравшись в этих вызовах получится легко понять для каких задач применение инструмента оправдано, а для каких нет.
Я прекрасно помню то время, когда я уже делал небольшие проекты на фрилансе, даже с базой данных Postgres и персистентным хранилищем на Redis, но при этом ещё не пользовался докером. А не пользовался я им по двум основным причинам:
1. Не было понимания для чего он вообще нужен
2. Не было понимания как им пользоваться
Я прочитал несколько статей и посмотрел несколько роликов (а тогда их ещё не было в таком изобилии, как сейчас), но все они сводились к перечислению консольных команд, которыми можно управлять докером и почти не отвечали на вопросы зачем вообще мне, начинающему разработчику, может докер понадобиться. Я даже какое-то время был убеждён, что тащить в проект докер - это оверинжиниринг. Типа, ага, давайте тогда, уж, и кубернетес сразу затащим. Но, как я понял позже, основной причиной не использовать докер было просто непонимание какое место он должен занять в моём стеке. И в этом мастер-классе я хочу, во-первых, показать, что докер - это вообще несложно и начать им пользоваться можно за, буквально, час времени. Во-вторых, на примерах показать как именно этот инструмент упрощает итак тяжёлую жизнь разработчика (включая ML-разработчиков). В-третьих, поделиться тем, как можно эффективно использовать докер в обучении новым инструментам, не боясь ничего сломать и не тратя ресурсы (время и деньги) на доступ к ним (взаимодействие с удалённым сервером по SSH, деплой небольших проектов, настройка кластеров СУБД и очередей, работа с S3-хранилищами и т.п.)
В общем, присоединяйтесь, если интересно в 18:00 по Мск 19.02.25 (следующая среда) .
https://welcome.stepik.org/dockerstepikmasterclass
У меня очень частая претензия к документации большинства инструментов заключается в том, что она (эта самая документация) хорошо может отвечать на вопрос "Как?" и почти не отвечает на вопрос "Зачем?". Появление любого инструмента всегда чем-то обусловлено и является ответом на вызовы времени. Немного разобравшись в этих вызовах получится легко понять для каких задач применение инструмента оправдано, а для каких нет.
Я прекрасно помню то время, когда я уже делал небольшие проекты на фрилансе, даже с базой данных Postgres и персистентным хранилищем на Redis, но при этом ещё не пользовался докером. А не пользовался я им по двум основным причинам:
1. Не было понимания для чего он вообще нужен
2. Не было понимания как им пользоваться
Я прочитал несколько статей и посмотрел несколько роликов (а тогда их ещё не было в таком изобилии, как сейчас), но все они сводились к перечислению консольных команд, которыми можно управлять докером и почти не отвечали на вопросы зачем вообще мне, начинающему разработчику, может докер понадобиться. Я даже какое-то время был убеждён, что тащить в проект докер - это оверинжиниринг. Типа, ага, давайте тогда, уж, и кубернетес сразу затащим. Но, как я понял позже, основной причиной не использовать докер было просто непонимание какое место он должен занять в моём стеке. И в этом мастер-классе я хочу, во-первых, показать, что докер - это вообще несложно и начать им пользоваться можно за, буквально, час времени. Во-вторых, на примерах показать как именно этот инструмент упрощает итак тяжёлую жизнь разработчика (включая ML-разработчиков). В-третьих, поделиться тем, как можно эффективно использовать докер в обучении новым инструментам, не боясь ничего сломать и не тратя ресурсы (время и деньги) на доступ к ним (взаимодействие с удалённым сервером по SSH, деплой небольших проектов, настройка кластеров СУБД и очередей, работа с S3-хранилищами и т.п.)
В общем, присоединяйтесь, если интересно в 18:00 по Мск 19.02.25 (следующая среда) .
https://welcome.stepik.org/dockerstepikmasterclass
welcome.stepik.org
Мастер-класс: «Кратно повысьте свою стоимость на рынке труда, используя Docker»
У Сергея Балакирева (selfedu) вышла вторая часть курса по ИИ на Степике. На текущий момент можно записаться бесплатно.
https://stepik.org/course/227582
https://stepik.org/course/227582
Stepik: online education
Добрый, добрый ИИ. Часть 2. Нейронные сети на PyTorch
Нейронные сети - самое популярное, трендовое направление в области искусственного интеллекта. Они уже стали частью нашей повседневной жизни, от распознавания образов и управления транспортом до генерации текстов, музыки, изображений, создания deep fake'ов.…
Го диприсёрчить с perplexity! Даже на бесплатном тарифе 5 исследований в сутки. Каких-то сверхинсайтов пока не получил, но инструмент интересный и достаточно перспективный!
Perplexity AI
Perplexity is a free AI-powered answer engine that provides accurate, trusted, and real-time answers to any question.
Это Большая Дата для нашего сообщества: приглашаем на большой митап по аналитике
📅 22 февраля в Москве и онлайне пройдёт митап для аналитиков от бизнес-группы Поиска и Рекламных технологий Яндекса. Послушаем доклады и попробуем свои силы в деловой игре по реальным кейсам из нашей практики.
В программе:
🔸 Павел Смирнов, руководитель команды дата-инженеров в Поиске и Рекламе. Расскажет, когда пора начинать строить единое логирование клиентской активности
🔸 Алексей Константинов, руководитель группы онлайн-метрик Поиска. Покажет, как сделать универсальную онлайн-метрику успешности сервиса на примере «Профицита»
🔸 Сайдаш Мифтахов, тимлид маркетинговой аналитики в международном Поиске. Объяснит, как Яндекс упрощает доступ в Поиск и растит долю рынка в Казахстане
✏️ Полный список тем докладов и форму регистрации ищите здесь.
📅 22 февраля в Москве и онлайне пройдёт митап для аналитиков от бизнес-группы Поиска и Рекламных технологий Яндекса. Послушаем доклады и попробуем свои силы в деловой игре по реальным кейсам из нашей практики.
В программе:
🔸 Павел Смирнов, руководитель команды дата-инженеров в Поиске и Рекламе. Расскажет, когда пора начинать строить единое логирование клиентской активности
🔸 Алексей Константинов, руководитель группы онлайн-метрик Поиска. Покажет, как сделать универсальную онлайн-метрику успешности сервиса на примере «Профицита»
🔸 Сайдаш Мифтахов, тимлид маркетинговой аналитики в международном Поиске. Объяснит, как Яндекс упрощает доступ в Поиск и растит долю рынка в Казахстане
✏️ Полный список тем докладов и форму регистрации ищите здесь.
Станьте ML-Инженером за 8 месяцев
Основная проблема обучений – оторванность от задач реального бизнеса. На курсе учили строить простые модельки, а на работе – сделать по шаблону недостаточно, нужно сразу связать это с бизнесом.
Курс-симулятор от Simulative построен таким образом, что вы сразу погружаетесь в настоящую работу: работаете над 10+ проектами из реального бизнеса, учитесь не только писать код, но и понимать, что у алгоритмов «под капотом»
Вы изучите математику, Python, научитесь обучать ML-модели, нейронные сети и создавать рекомендательные системы. А также подготовитесь к любому собеседованию – в курс включены тестовые задания, пробные интервью (технические и с HR) и многое другое.
С трудоустройством тоже помогут: 87% студентов находят работу в течение двух месяцев с момента начала поиска.
А на VIP тарифе преподаватели и HR спроектируют вам персональный трек обучения и за руку доведут до оффера. Часть стоимости курса вы оплачиваете только, когда найдёте работу.
Совсем скоро стартует новый поток
Узнать подробности
Основная проблема обучений – оторванность от задач реального бизнеса. На курсе учили строить простые модельки, а на работе – сделать по шаблону недостаточно, нужно сразу связать это с бизнесом.
Курс-симулятор от Simulative построен таким образом, что вы сразу погружаетесь в настоящую работу: работаете над 10+ проектами из реального бизнеса, учитесь не только писать код, но и понимать, что у алгоритмов «под капотом»
Вы изучите математику, Python, научитесь обучать ML-модели, нейронные сети и создавать рекомендательные системы. А также подготовитесь к любому собеседованию – в курс включены тестовые задания, пробные интервью (технические и с HR) и многое другое.
С трудоустройством тоже помогут: 87% студентов находят работу в течение двух месяцев с момента начала поиска.
А на VIP тарифе преподаватели и HR спроектируют вам персональный трек обучения и за руку доведут до оффера. Часть стоимости курса вы оплачиваете только, когда найдёте работу.
Совсем скоро стартует новый поток
Узнать подробности
Получил непередаваемое удовольствие от просмотре ролика с разбором свежей научной статьи "s1: Simple test-time scaling" от Евгения Разинкова! Не покидает ощущение, что у учёных снова появились низковисящие фрукты, потому что довольно простые и по-человечески понятные действия улучшают качество работы моделей и дают новые гипотезы для дальнейших, потенциально прорывных, экспериментов.
Просто обратите внимание на то, какими методами от моделей добиваются нужного поведения, как детей направляя на нужный ход мыслей. Aha-момент - это, ну, совсем как у людей (это когда модель понимает, что цепочка её рассуждений приводит к неправильным результатам). А для того, чтобы заставить модель рассуждать дальше, нужно просто заставить её думать, что она сама написала "Wait", типа, подождите, я ещё не закончила. Заклинатели нейросетей в тренде 🙂
Ну, и идея обучать модели на "правильных" цепочках рассуждений сама по себе лежит на поверхности. Чем не низковисящий фрукт? Однозначно рекомендую к просмотру! Никакого сложного матана, только концептуальные вещи.
Просто обратите внимание на то, какими методами от моделей добиваются нужного поведения, как детей направляя на нужный ход мыслей. Aha-момент - это, ну, совсем как у людей (это когда модель понимает, что цепочка её рассуждений приводит к неправильным результатам). А для того, чтобы заставить модель рассуждать дальше, нужно просто заставить её думать, что она сама написала "Wait", типа, подождите, я ещё не закончила. Заклинатели нейросетей в тренде 🙂
Ну, и идея обучать модели на "правильных" цепочках рассуждений сама по себе лежит на поверхности. Чем не низковисящий фрукт? Однозначно рекомендую к просмотру! Никакого сложного матана, только концептуальные вещи.
YouTube
s1: разбор статьи (и немного про DeepSeek)
Разбираем статью "s1: Simple test-time scaling":
https://arxiv.org/abs/2501.19393
Немного обсуждаем DeepSeek-R1:
https://arxiv.org/abs/2501.12948
Онлайн-школа по AI: с 17 февраля 2025.
Регистрация:
https://razinkov.ai/school
Подпишитесь на телеграм-канал…
https://arxiv.org/abs/2501.19393
Немного обсуждаем DeepSeek-R1:
https://arxiv.org/abs/2501.12948
Онлайн-школа по AI: с 17 февраля 2025.
Регистрация:
https://razinkov.ai/school
Подпишитесь на телеграм-канал…