Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on null in /var/www/tgoop/function.php on line 65
1021 - Telegram Web
Telegram Web
Ваши модели заслуживают продакшн. Освойте MLOps и CI/CD для ML с нуля!
Практический курс от экспертов OTUS

Вы обучаете модели, добиваетесь отличных метрик — но деплой так и остаётся в списке «сделать потом»? Курс «MLOps» — это про то, как превратить ваши модели в надёжные, автоматизированные сервисы. На практике разберёте CI/CD, контейнеризацию, мониторинг и управление инфраструктурой. Вы поймёте, как выстраивать полный цикл: от хранения данных и исходников до переобучения и развёртывания моделей в k8s.

Вы научитесь работать с Docker, MLflow, Airflow, Prometheus, Grafana и Kafka. Разберётесь, как организовать конвейер обучения и обновлений, как обрабатывать ошибки и следить за метриками в проде. И главное — перестанете «собирать пайплайны вручную», заменив хаос на надёжные процессы.

Пройдите короткое вступительное тестирование и получите скидку на обучение по промокоду WELCOME_MLOPS5: https://vk.cc/cRni2X

предложение актуально до 1 декабря 2025 года

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
LLM Council

Идея этого репозитория в том, что вместо того, чтобы задавать вопрос вашему любимому поставщику LLM (например, OpenAI GPT 5.1, Google Gemini 3.0 Pro, Anthropic Claude Sonnet 4.5, xAI Grok 4 и т.д.), вы можете объединить их в свой «Совет LLM». Этот репозиторий — это простое локальное веб-приложение, которое выглядит как ChatGPT, но использует OpenRouter, чтобы отправлять ваш запрос сразу нескольким LLM, затем просит их оценить и ранжировать ответы друг друга, а в конце Председатель Совета генерирует итоговый ответ.

Подробно, что происходит при отправке запроса:

Этап 1: Первые мнения. Запрос пользователя передаётся каждому LLM отдельно, и собираются их ответы. Индивидуальные ответы показываются во вкладках, чтобы пользователь мог просмотреть их по одному.

Этап 2: Рецензирование. Каждый LLM получает ответы остальных моделей. Их идентичность скрыта, чтобы исключить предвзятость. Модель должна ранжировать ответы по точности и глубине.

Этап 3: Итоговый ответ. Назначенный Председатель Совета LLM берёт все ответы моделей и объединяет их в один финальный ответ, который показывается пользователю.

https://github.com/karpathy/llm-council

👉 @bigdata_1
👍42
Вы не сможете это развидеть: краткий гайд по определению LLM-текстов

Но сейчас я вижу то, что я не просто не люблю, я ненавижу — нейрослоп. Это статьи, которые полны логических ошибок, не отвечает на вопрос заданный в заголовке, с кучей воды. Это не просто дно копирайтинга, это "снизу постучали". Это не было бы проблемой, будь это плохие авторы. Плохие авторы конечны. LLM может генерировать гигабайты текста, только плати за токены, и весьма недорого — у меня есть несколько проектов, в которых LLM используется для NLP, и там ощутимые обьемы входа и генерации, и знаете сколько я потратил за все время существования этих проектов на работу и тесты? Долларов пять. Дешевый некачественный копирайтинг еще никогда не был ТАК дешев.

Возможно этот слоп замечательно индексируется, но я считаю что это путь в никуда для хабра как сообщества специалистов.
Потому что как только таких статей станет большинство — из сообщества уйдут те самые специалисты, просто потому что ну зачем им читать воду. Я закрываю эти статьи ровно сразу же, как только опознаю ИИ. Если их станет слишком много — я просто уйду. И чем больше уходит активных авторов, тем меньше становится интересных статей, и тем больше в процентном соотношении такой воды, тем больше уходит ядерная аудитория. Замкнутый круг.

https://habr.com/ru/articles/967428/

👉 @bigdata_1
👍2
2025/12/12 22:55:15
Back to Top
HTML Embed Code: