Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
175 - Telegram Web
Telegram Web
Вместе с ребятами из IT Resume подготовили 6 частых вопросов с собеседований по Data Science и ответы на них. Кстати, ребята несколько раз в неделю выкладывают задачи по программированию и Data Science с подробным разбором - отличная тренировка перед собеседованием.

Ребята сейчас разрабатывают полноценную платформу для развития навыков и подготовки к собеседованиям в IT. Скоро первый релиз 😉

Cтатьи ВК
Телеграм
Forwarded from TechSparks
Сегодня стартовала Олимпиада в Токио; а в современном мире знаменитые слова «быстрее, выше, сильнее» означают, что достижения спортсменов должны регистрироваться все более совершенной измерительной техникой. Компания Omega традиционно обслуживает большие соревнования, вот и в этот раз они гордятся далеко не только точностью хронометража.
Теперь в ходу детекторы поз тела в гимнастике, компьютерное зрение, позволяющее измерять кучу параметров пловцов, изощренные датчики на велосипедах и стартовых колодках легкоатлетов… Олимпиада нынче это и парад технологий, и мы ещё почитаем не только про технологии измерений, но и про технологии визуализации и трансляции для максимальной зрелищности, про высокотехнологичный инвентарь и сотрудничество тренеров с ИИ. Нынче спорт высоких достижений — это обязательно спорт высоких технологий ;)

https://www.digitaltrends.com/features/omega-timekeeping-tech-olympics-2021/
Forwarded from Denis Sexy IT 🤖
Интересное исследование про еще один перегретый рынок, в этот раз рекламы на ТВ:

За 2019 год различные организации вложили в ТВ рекламу порядка 66 миллиардов долларов, веря, что такие деньги будут способствовать росту продаж. Однако, согласно новому исследованию, более чем для 80% брендов реклама имеет отрицательную рентабельность, что означает чрезмерные и необоснованные инвестиции в продвижение или по простому – деньги на ветер.

Исследователи кафедры маркетинга Kellogg обнаружили, что для более чем 200 потребительских товаров, включая продукты питания, напитки и основные товары для дома, рентабельность инвестиций (ROI) была отрицательной – «Похоже, что подавляющее большинство фирм слишком много рекламируют или тратят слишком много на рекламу».

Проблема кроется в том, что эффективность рекламы на ТВ можно оценивать в основном по деньгам которую реклама принесла. В это же время, многие менеджеры признают, что не очень уверены в своей способности измерить эффективность такой рекламы. В итоге, получается что это рынок который просто едет по рельсам которые проложили в прошлом – компании идут на крупные вложения с сомнительной отдачей. Уже очень долго исследователи пытаются количественно измерить эффективность рекламы различными видами анализа, но по большей части некоторые из способов не эффективны, другие сосредоточены только на одной отрасли и не показывают общей картины, а третьи просто не объективны по причине - ну кто будет говорить об неэффективной рекламе 🌚

Исследователи решили сосредоточить свое внимание на 288 потребительских товаров, названия некоторых из них были нарицательными, что говорит о том, что они хорошо себя зарекомендовали на рынке (например Bounty). Компании по прежнему вливали в телерекламу в среднем по 10,5 миллионов $ в год.

Исследователи получили данные о продажах примерно в 12 000 торговых точек США, а также данные о покупках более чем в 60 000 американских домохозяйствах в 2010-2014 годах, изучив при это данные традиционной ТВ рекламы за этот же период. Само исследование состояло из нескольких сложных частей (если вы часть этой отрасли, то вам будет интересно почитать), но главное что там вывели некий показатель, называемый эластичностью рекламы, он оказался равен 0,01, что означает, что если фирмы удвоят объем телерекламы, продажи возрастут, ну, на 1% примерно.

С нетерпением жду такого же исследования про крупные оффлайн бренды на рынке интернет рекламы и методов такой рекламы – никак не выходит из головы недавний случай который я видел в инсте, где Sprite закупал рекламу у блогеров инстаграма (~от 100к подписчиков, не знаю сколько их было), с какой-то пафосной подводкой в стиле «мой путь» и ссылкой на инсту Sprite Russia – 7к подписчиков в результате. При этом, я не верю, что кто-то побежал в магазин покупать Sprite увидя как какой-то блогер пьет газировку ¯\_(ツ)_/¯

Я понимаю, что на эту аудиторию можно будет в будущем таргетировать всякое, но все же – учитывая бюджеты (не верю что блогеры мало берут), явно цена всей кампании очень большая и типа построить фонтан со спрайтом в центре ВДНХ было бы дешевле ⛲️💦
Forwarded from partially unsupervised
Прочитал прекрасный лонгрид про Трампа современное де-факто кастовое строение общества (очень рекомендую осилить целиком). Самые нетерпеливые читатели могут уже возмутиться "эй, мне обещали, что это канал про ML и software engineering, верните мои деньги!". Но погодите отписываться, это пост на самом деле про карьеру в software.

Вырву цитату из этой статьи:

Олред рассказывает, что за годы работы школы они поняли, что учеников надо научить не только правильно кодировать, но и правильно разговаривать, правильно одеваться и даже правильно выбирать имейл-адрес — иначе с устройством на работу возникают проблемы. У тех, кто приходит в Lambda, чтобы научиться кодировать, и у IT-менеджеров, которые их нанимают, просто разные культурные коды, и чтобы тебе доверяли как программисту, нужно не только программировать как программист, но и вести себя как программист. То есть показать, что ты принадлежишь к определенному социальному классу.

Этот тезис обязателен для осознания многим, например:
- тем, кто пытается вкатиться в индустрию без релевантного образования (а таких людей очень много);
- тем, кто в этом помогает (авторы всяких курсов программирования);
- тем, кто застрял в карьере на уровне code monkey (и недоволен этим).

Действительно, ставшие популярными behavioral интервью проверяют не только, не мудак ли кандидат, но и является ли он частью "касты технарей". Это необязательно значит быть архетипичным нердом, но какие-то общие ценности ожидаются. Знаменитое fake it till you make it - как раз про то, чтобы успешно мимикрировать под эту касту, и потом уже влиться в нее по-настоящему.

Разумеется, все вышесказанное никак не противоречит необходимости ботать алгоритмы, уметь пользоваться современными инструментами, сколько-то знать математику и в целом уметь программировать. Но этого недостаточно: при прочих равных из двух кандидатов, закончивших одинаковые курсы, пролиставших одинаковые учебники и сделавших одинаковые пет-проекты, первым получит работу тот, кто в свободное время читает научпоп про космос и играет в видеоигры, а не тот, кто с юности любит музеи современного искусства и артхаусное кино.
Нейросеть Codex от OpenAI: увольняйте ваших Data Scientist’ов

Будущее наступило! Нейросеть Codex (gpt 3 для генерации кода) позволяет решать data science задачи на естественном языке!

https://youtu.be/Ru5fQZ714x8
Появился НейроПутин.

Потестил - словно прямую линию посмотрел. Ответы весьма похожие получаются.

Поговорить с ним можно тут: @neural_chat_bot.
#books

Прочитал книгу "Это норм!
Книга о поисках себя, кризисах карьеры и самоопределении".

Очень разумные мысли, хорошая подача. Некоторые вещи и у самого на языке крутились, но не мог сформулировать правильно. После прочтения некоторые идеи и мысли куда яснее теперь вижу.

В общем, рекомендую к прочтению .
∞-former: Infinite Memory Transformer

Представлен трансформер, не просто решающий проблему квадратичной сложности механизма внимания за линейное время, а пытающийся найти решение за константу.

Основная идея в том, чтобы аппроксимировать вектора токенов последовательности различной длины фиксированным набором континуальных радиальных базисов.

По факту, вместо привычной матрицы [длина последовательности, размерность токенов] получается набор континуальных функций размерностью [константа. размерность токенов]. Интуиция - компрессия временной составляющей.

За счет использования механизма непрерывного внимания для работы с такой долговременной памятью, сложность внимания ∞-former становится независимой от длины контекста.

Метод не такой изящный, как perceiver io, но определено интересный.

📄 paper
Forwarded from Инжиниринг Данных (Dmitry Anoshin)
#code

Создал небольшой репозиторий с решениями SQL задачек с sqlpad. Может кому-то пригодятся, если вдруг решите потренировать SQL задачки (а они там достаточно неплохие) и застрянете на какой-то из них
#датасеты

КОД КРАСНЫЙ У НАС 70ГБ АНИМЕ
линк
​​Готовлю обзорный доклад по мета-анализу.

Интересная мысль из сферы медицины - использовать некое соотношение между типами доказательств. Например, личному мнению специалиста мы верим куда меньше, чем A/B тесту (что логично).

И вот, казалось бы, идея классная. Но в суровую реальность живого применения она идет с трудом. Потому что совсем не ясно, насколько важнее один тип доказательств, чем другой? А рост траты ресурсов на доказательства выше по позиции в этой пирамиде достаточно нелинейный. Что влечет за собой еще больше проблем.

С другой стороны, если откалибровать эту историю на какую-то компанию и заполучить понимание, когда нам выгодно положиться на слабые доказательства, а когда - на сильные, то можно получить много бонусов от такой системы принятия решений.

И я верю, что скоро в больших (а потом и в меньших) компаниях придут к такого рода "табелям о рангах". Пускай и в упрощенном эмпирическом виде.

P.S. Из идей реализации таких историй можно попробовать проделать все операции снизу-вверх (для нескольких разных исследуемых ситуаций), а потом посмотреть, сколь часто наши доказательства будут рассогласованы и сколько времени будем занимать каждый этап. А оттуда уже получать среднее по больнице (эмпирические правила, когда и сколько доказательств получать - некий скоринг уверенности в выводах).
Лютейшая годнота по теме Causal Inference.
Называется "Causal Inference for The Brave and True".

Очень много полезной информации + тонна мемов, разбавляющих заумное повествование (спойлер: там все еще много математики, так что будьте аккуратны, чтобы случайно не сломать мозг).

В общем, 10 регрессий из 10.
#AB

Почему при оценке бутстрепом нельзя взять на каждой итерации больше элементов, чем у нас в выборке?

Вопрос хороший.
Казалось бы, идея простая: больше объектов - уже доверительные интервалы, точнее оценки.

Ан нет, тут тоже у нас no free lunch.
Если кратко - то это сужение доверительного интервала есть лишь искажение, искусственно заниженный результат (мы изменяем распределение, так что полагаться на такие оценки нельзя). Подробные объяснения можно посмотреть по ссылкам (раз, два)

Дополнительно к этому сделал крайне простую симуляцию. Генерация выборок размера 2N на каждом шаге увеличивает ошибку первого рода (причем достаточно сильно, на 5-10%).
Forwarded from 👾 твой cto
​​ Нейронка, которая комментирует ваши ходы в шахматах

ChessCoach играет лучше людей (3450 Elo), но может проиграть более сильной нейронке. Тренировалась играя сама против себя. По ссылке есть детальное описание от автора, будет полезно многим, кто хочет вкатиться в разработку нейронок.

Поиграть против нейронки и почитать её комментарии можно вот тут.
2025/07/13 22:35:30
Back to Top
HTML Embed Code: