DS_INTERVIEW_LIB Telegram 1109
Как можно встроить экспертные знания о задаче в Bayesian-подход к тюнингу гиперпараметров

В Bayesian optimization доменные знания можно внедрить через задание информативных априорных распределений и стартовых точек:

🟠 Ограничение диапазонов — если известно, что в вашей области обучения эффективные learning rate находятся в узком интервале, априор можно задать не равномерным, а суженным (например, log-uniform в пределах, где вы ожидаете хорошие результаты).

🟠 Warm-start — добавить в начальный набор экспериментов уже успешные конфигурации, чтобы модель-заместитель сразу получила полезную информацию о ландшафте гиперпараметров.

🟠 Специализированная модель-заместитель — вместо стандартного Gaussian Process использовать модель, отражающую корреляции между гиперпараметрами (например, объединяя родственные типы регуляризации в иерархию).

💡 Подводный камень: чрезмерно «узкие» или слишком уверенные априоры могут зафиксировать поиск в локальном оптимуме. Даже с сильными предположениями полезно сохранять некоторую степень случайного исследования пространства.

Библиотека собеса по Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3



tgoop.com/ds_interview_lib/1109
Create:
Last Update:

Как можно встроить экспертные знания о задаче в Bayesian-подход к тюнингу гиперпараметров

В Bayesian optimization доменные знания можно внедрить через задание информативных априорных распределений и стартовых точек:

🟠 Ограничение диапазонов — если известно, что в вашей области обучения эффективные learning rate находятся в узком интервале, априор можно задать не равномерным, а суженным (например, log-uniform в пределах, где вы ожидаете хорошие результаты).

🟠 Warm-start — добавить в начальный набор экспериментов уже успешные конфигурации, чтобы модель-заместитель сразу получила полезную информацию о ландшафте гиперпараметров.

🟠 Специализированная модель-заместитель — вместо стандартного Gaussian Process использовать модель, отражающую корреляции между гиперпараметрами (например, объединяя родственные типы регуляризации в иерархию).

💡 Подводный камень: чрезмерно «узкие» или слишком уверенные априоры могут зафиксировать поиск в локальном оптимуме. Даже с сильными предположениями полезно сохранять некоторую степень случайного исследования пространства.

Библиотека собеса по Data Science

BY Библиотека собеса по Data Science | вопросы с собеседований


Share with your friend now:
tgoop.com/ds_interview_lib/1109

View MORE
Open in Telegram


Telegram News

Date: |

Telegram users themselves will be able to flag and report potentially false content. Done! Now you’re the proud owner of a Telegram channel. The next step is to set up and customize your channel. Invite up to 200 users from your contacts to join your channel Each account can create up to 10 public channels Write your hashtags in the language of your target audience.
from us


Telegram Библиотека собеса по Data Science | вопросы с собеседований
FROM American