tgoop.com »
United States »
Библиотека собеса по Data Science | вопросы с собеседований » Telegram Web
Глубокие нейронные сети способны учиться представлениям входных данных, которые уменьшают избыточность коррелированных признаков. Например, первые слои могут автоматически комбинировать сильно коррелированные признаки в более независимые внутренние представления.
Однако корреляция всё равно влияет на несколько аспектов:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Adam объединяет идеи из предыдущих оптимизаторов:
💡 Чтобы глубже понимать, как работают оптимизаторы и почему математика так важна в ML, посмотри курс Математика для Data Science — сейчас на него действует скидка –40%.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Частота переобучения зависит от скорости изменения данных, степени выявленного дрейфа и затрат на повторное обучение.
В быстро меняющихся областях (например, обнаружение мошенничества в реальном времени) модели могут обновляться ежедневно или еженедельно. В стабильных доменах достаточно квартального или даже более редкого обновления.
Такой подход сочетает реактивные меры (переобучение при ухудшении производительности) и проактивные меры (периодическое обновление модели для учёта новых данных).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1