Информация для тех, кто хочет учиться на физфаке МГУ, в МФТИ, МИФИ или МГТУ им. Н.Э. Баумана.
Адаптация из школьника в студента - сложный этап. Как распределять время на учебу и жизнь? Где читать новости? Как сдавать сессию, чтобы сохранить ментальное здоровье?
Ответ есть: старшие товарищи из МГУ давно ведут канал @msuthefirst. Не спешите пролистывать, это искренняя рекомендация!
Что у них есть:
▪️ новости обо всем значимом для студентов: тут первыми расскажут об отмене заняти и повышении стипендии;
▪️ советы по учебе: тут научат распределять свое время и сдавать сессию с минимальными потерями;
▪️ вакансии и стажировки: тут куча интересных вакансий как для начинающих, так и для выпускников;
▪️ истории успеха: мотивирующие истории для того, чтобы не опускать руки.
Если вы можете найти это где-то еще в одном месте, то поделитесь в комментариях. Если нет, то попробуйте почитать этот канал!
https://www.tgoop.com/msuthefirst
Адаптация из школьника в студента - сложный этап. Как распределять время на учебу и жизнь? Где читать новости? Как сдавать сессию, чтобы сохранить ментальное здоровье?
Ответ есть: старшие товарищи из МГУ давно ведут канал @msuthefirst. Не спешите пролистывать, это искренняя рекомендация!
Что у них есть:
▪️ новости обо всем значимом для студентов: тут первыми расскажут об отмене заняти и повышении стипендии;
▪️ советы по учебе: тут научат распределять свое время и сдавать сессию с минимальными потерями;
▪️ вакансии и стажировки: тут куча интересных вакансий как для начинающих, так и для выпускников;
▪️ истории успеха: мотивирующие истории для того, чтобы не опускать руки.
Если вы можете найти это где-то еще в одном месте, то поделитесь в комментариях. Если нет, то попробуйте почитать этот канал!
https://www.tgoop.com/msuthefirst
Telegram
Первый университетский
Канал про МГУ и другие университеты.
Связь с каналом и реклама: @Msuthefirst_connect
Чат: @msuthefirstchat
ВК: https://vk.com/msuthefirst
Канал зарегистрирован в РКН.
Связь с каналом и реклама: @Msuthefirst_connect
Чат: @msuthefirstchat
ВК: https://vk.com/msuthefirst
Канал зарегистрирован в РКН.
🤡56💩6❤3🤮2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥26🌭5👍3🤮3🤡3
Надо видимо иногда читать российские новости, а то вот я уже уеду в аэропорт и оказывается что аэропорт Казани не принимает и не выпускает рейсы с 6 утра из-за дронов)))
upd. Вроде он возобновил уже работу
upd. Вроде он возобновил уже работу
🥰17😱6❤5👍5🤡1
Черт мне очень сильно кажется что сегодня в 16 я запланировал какой-то созвон, а никак не могу найти какой...
👍17😁6🤡3🤮2
А у меня одного была идея вытворить какую-то лютую дичь чтобы меня больше никогда не взяли на работу в ру бигтех и потом выкручиваться из этого?
🤡28💅14👍12👎2🤮2
ML-легушька
Хотите познавательного контента навалю вам?
По ML System Design, на своём опыте. Я университетов не кончал, просто творю как чувствую и чтобы было круто. В данном случае я не связан NDA, поэтому выложу вам все😍
🔥53❤6💯3👍2🤡1
Делимся опытом: ML System Design для анализа коротких видео [1/3]
Давайте поговорим сначала про задачу и ограничения.
Задача: пользователь записывает несколько коротких (до 1 минуты) видео, подряд, соответственно записал одно - сразу записывает другое. Нужно выдать по каждому видео аналитику поведения пользователя, про улыбчивость, жесты, зрительный контакт, речь и прочее.
Ограничения: куда же без ограничений? Если вы крутая бигтех компания у вас их намного меньше, а тут они следующие: есть немного времени на разработку, условно один-два месяца, есть один Я, который в видео не бумбум, есть одна машинка с Tesla T4, и условно большое количество кредитов на MongoDB и google cloud. Нужно, чтобы результат пользователю выдавался как можно быстрее. Идеально - сразу после записи всех видео. Нагрузка по пользователям небольшая, условно не более 5-10 человек одновременно. Данных нет, бюджета на разметку тоже нет. Соответственно, нужно собрать сервис на основе готовых решений.
А теперь поехали...
Давайте поговорим сначала про задачу и ограничения.
Задача: пользователь записывает несколько коротких (до 1 минуты) видео, подряд, соответственно записал одно - сразу записывает другое. Нужно выдать по каждому видео аналитику поведения пользователя, про улыбчивость, жесты, зрительный контакт, речь и прочее.
Ограничения: куда же без ограничений? Если вы крутая бигтех компания у вас их намного меньше, а тут они следующие: есть немного времени на разработку, условно один-два месяца, есть один Я, который в видео не бумбум, есть одна машинка с Tesla T4, и условно большое количество кредитов на MongoDB и google cloud. Нужно, чтобы результат пользователю выдавался как можно быстрее. Идеально - сразу после записи всех видео. Нагрузка по пользователям небольшая, условно не более 5-10 человек одновременно. Данных нет, бюджета на разметку тоже нет. Соответственно, нужно собрать сервис на основе готовых решений.
А теперь поехали...
🔥28❤3🤮2🤡2👍1
Делимся опытом: ML System Design для анализа коротких видео[2/3]
Теперь поговорим о том, какое итоговое решение с точки зрения инфраструктуры и коммуникаций у меня получилось.
Есть бэкэнд и фронтенд, на котором записывается видео, дальше видео кладется в google cloud bucket, который через gcfuse присоединен к машинке с Tesla T4, на которой мы будем разворачивать наш сервис. Машинка тоже гугловая, соответственно задержка между попаданием видео в бакет и на машинку очень маленькая. Почему не сразу стримить на машинку? Впадлу стыковать все это дело, к тому же бакет расширяется легче чем машинка, и через такое подключение питон может читать всю информацию будто с жесткого диска.
Информация обо всей аналитике и вообще все хранится в MongoDB, соответственно там есть коллекция под эти видео. Как только видео загружается, в записи, соответствующей видео, ставится статус UPLOADED, то есть оно полностью загружено на бакет и готово к использованию.
Что происходит на машинке? Запускается питоновский скрипт, который инициализирует два типа multiprocessing воркеров - один воркер мониторит MongoDB через pymongo на предмет новых записей, и все новые видео кладет в очередь на обработку. Другие воркеры - экземпляры пайплайна обработки, они обрабатывают видео и отправляют информацию в MongoDB о том, что видео обработано, вместе с результатами обработки, и посылают запрос в следующий сервис, который уже отдельно обрабатывает текст, извлеченный из видео, и говорит бэку что можно забрать результаты. Питоновский multiprocessing имеет ограничения, однако его было достаточно, плюс в случае запуска множества питоновских скриптов подобного типа могли возникать проблемы синхронизации, и пришлось бы дописывать балансировщик, который будет раскидывать задачи, что дополнительная попоболь, особенно для меня, который не сильно до этого упарывался с инфраструктурой, а сроки-то поджимают.
Если вы гуру систем дезигна, можете кинуть в меня помидорами в комментариях и предложить конструктивные улучшения. Также прикладываю картинку для легкости восприятия.
Теперь поговорим о том, какое итоговое решение с точки зрения инфраструктуры и коммуникаций у меня получилось.
Есть бэкэнд и фронтенд, на котором записывается видео, дальше видео кладется в google cloud bucket, который через gcfuse присоединен к машинке с Tesla T4, на которой мы будем разворачивать наш сервис. Машинка тоже гугловая, соответственно задержка между попаданием видео в бакет и на машинку очень маленькая. Почему не сразу стримить на машинку? Впадлу стыковать все это дело, к тому же бакет расширяется легче чем машинка, и через такое подключение питон может читать всю информацию будто с жесткого диска.
Информация обо всей аналитике и вообще все хранится в MongoDB, соответственно там есть коллекция под эти видео. Как только видео загружается, в записи, соответствующей видео, ставится статус UPLOADED, то есть оно полностью загружено на бакет и готово к использованию.
Что происходит на машинке? Запускается питоновский скрипт, который инициализирует два типа multiprocessing воркеров - один воркер мониторит MongoDB через pymongo на предмет новых записей, и все новые видео кладет в очередь на обработку. Другие воркеры - экземпляры пайплайна обработки, они обрабатывают видео и отправляют информацию в MongoDB о том, что видео обработано, вместе с результатами обработки, и посылают запрос в следующий сервис, который уже отдельно обрабатывает текст, извлеченный из видео, и говорит бэку что можно забрать результаты. Питоновский multiprocessing имеет ограничения, однако его было достаточно, плюс в случае запуска множества питоновских скриптов подобного типа могли возникать проблемы синхронизации, и пришлось бы дописывать балансировщик, который будет раскидывать задачи, что дополнительная попоболь, особенно для меня, который не сильно до этого упарывался с инфраструктурой, а сроки-то поджимают.
Если вы гуру систем дезигна, можете кинуть в меня помидорами в комментариях и предложить конструктивные улучшения. Также прикладываю картинку для легкости восприятия.
❤21🤮3🤡2