Интересное что-то от ребят, кого я читаю v0.21
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например попросить составить промпт, улучшить его или оптимизировать под другую модель.
2. Валера выложил свою презентацию, где он рассказывал про Workflow LLM системы. Короче, реальный опыт практикующего чела - рекомендую ознакомиться.
3. Ринат пишет про типичный паттерн проектирования системы с LLM под капотом. Там и Парсинг хитрых документов с разными либками и включение human in the loop, и анализ документов ллмками с SO CoT, и даже интерфейс, который был собран вайбкодингом разными инструментами!
4. Другой Валера размышлял про майндсет тимлида и его руководителя. Вся суть в майндсете и целях. Если тимлиду команды нужно всеми силами работать над долгосрочным перфомансом своей команды и ее выхлопом, то лид лидов уже мыслит в рамках эффективности всей компании и делает хорошо стратегически.
5. Наш Тоха поделился видением самоотзыва на ревью со стороны тимлида. Почему важно писать коротко и понятно без больших полотен текста, и для чего все-таки надо работать над оцифровкой эффектов.
Интересного по классике больше, но постарался приложить самое годное. Если у вас есть что добавить, кидайте в коменты.
#interesting
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например попросить составить промпт, улучшить его или оптимизировать под другую модель.
2. Валера выложил свою презентацию, где он рассказывал про Workflow LLM системы. Короче, реальный опыт практикующего чела - рекомендую ознакомиться.
3. Ринат пишет про типичный паттерн проектирования системы с LLM под капотом. Там и Парсинг хитрых документов с разными либками и включение human in the loop, и анализ документов ллмками с SO CoT, и даже интерфейс, который был собран вайбкодингом разными инструментами!
4. Другой Валера размышлял про майндсет тимлида и его руководителя. Вся суть в майндсете и целях. Если тимлиду команды нужно всеми силами работать над долгосрочным перфомансом своей команды и ее выхлопом, то лид лидов уже мыслит в рамках эффективности всей компании и делает хорошо стратегически.
5. Наш Тоха поделился видением самоотзыва на ревью со стороны тимлида. Почему важно писать коротко и понятно без больших полотен текста, и для чего все-таки надо работать над оцифровкой эффектов.
Интересного по классике больше, но постарался приложить самое годное. Если у вас есть что добавить, кидайте в коменты.
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.20
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную…
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Начнем с необычного - некоторое время в каналах по ллмкам (больше всего мне зашел пост Сергея) гуляют ссылки на интересную…
👍5⚡3🔥3❤🔥2❤1
Прокрастинация
Думаю, вы знакомы с удивительным феноменом: чем важнее задача, тем больше хочется заняться чем угодно, только не ей.
Нужно писать диплом?
Отлично, самое время просмотреть все 400 непрочитанных каналов с постами коллег или послушать свою волну в Яндекс Музыке. Либо разобрать загрузки по папочкам и полезностям, хотя вряд ли к ним вернусь.
Сдать курсовую завтра?
Идеальный момент, чтобы появилось желание помыть посуду или пропылесосить. Ух, главное чтобы еще и пыль протирать не захотелось - так и до генеральной уборки недалеко(к слову, не люблю убираться, поэтому при появлении желания или рвения обязательно это использую) .
Давайте потратим 6 часов на изучение истории Пауэр Рейнжеров вместо того, чтобы за 10 минут пофиксить тот тупой баг, чтобы запустить расчет на полдня. Или там поработать над курсом по промптингу. Кстати, было и обратное - однажды я потратил все выходные на то, чтобы разобраться с очень мелкой и тупой ошибкой. Хотя внимательно посмотреть один раз - и проблема решена, ну или либо в гпт загнать.
И реально сидишь кайфуешь - почему бы не узнать про символизм в фильме Револьвер, или почитать отзывы на фильм Ненависть 1995 года. Мозг выдает хоть и не ощущение продуктивности, но сколько же это удовольствия.К сожалению не 100%-го . Потому что на фоне постоянно сидишь с мыслями о том, а че когда вот задачку делать? Опять ночью? И потихоньку накручивается все
Что мешает просто сесть и сделать? Ничего! Но как себя заставить? Что сказать мозгу? Почему он панически боится неопределенности, сложности, возможности неудачи и ему нужно столько энергии, чтобы хоть что-то начать?
Хочется по-другому. Захотелось - и можешь откладывать дела с максимальным удовольствием, без чувства вины. Или наоборот - если нужно, сразу садишься за самое важное дело без каких-либо странных мыслей. Короче, не лениться.
А что, если прокрастинация - это не лень. Это страх. Страх не справиться. Сделать плохо. Потратить время впустую. Избежать возможной неудачи. Или есть закономерность: чем больше я думаю о задаче, тем страшнее она кажется. Чем дольше откладываю - тем сложнее она становится? А что если поменять подход? Не думать и не откладывать. Вдруг эта привычка на самом деле бережет наш ресурс?
Давайте ее использовать.
Не нужно сразу бросаться целиком на большую задачу. Если она маленькая и можно сделать здесь и сейчас за пару минут? Давайте сделаем. Занимает времени больше и пора бы уже сделать - давайте поставим минимальную цель: поработать над задачей 1 минуту. Часто этого хватает, чтобы преодолеть барьер входа и втянуться.
Иногда можно договориться с собой: "Буду прокрастинировать, но продуктивно". Вместо соцсетей - почитать литературу. Вместо рилсиков - видосики по развитию. Это все еще прокрастинация, но уже слегка полезная. Поэтому я прокрастинирую через чтение каналов и репостов интересных постов.
Важно себя не ругать. Зачем тратить энергию на чувство вины? Можно просто принять: мы все прокрастинируем. Это не баг, это фича человеческой психики. Вопрос не в том, как полностью избавиться от этого, а в том, как это перевернуть в свою сторону. Понять сигналы тела, использовать применить разные техники, чтобы высвободить эмоции и энергию.
И вообще рекомендую задуматься, почему в нашей жизни появляется прокрастинация и в принципе работать над этим в долгосроке.
Ссылочки: 1, 2, 3, 4
#softskills
Думаю, вы знакомы с удивительным феноменом: чем важнее задача, тем больше хочется заняться чем угодно, только не ей.
Нужно писать диплом?
Отлично, самое время просмотреть все 400 непрочитанных каналов с постами коллег или послушать свою волну в Яндекс Музыке. Либо разобрать загрузки по папочкам и полезностям, хотя вряд ли к ним вернусь.
Сдать курсовую завтра?
Идеальный момент, чтобы появилось желание помыть посуду или пропылесосить. Ух, главное чтобы еще и пыль протирать не захотелось - так и до генеральной уборки недалеко
Давайте потратим 6 часов на изучение истории Пауэр Рейнжеров вместо того, чтобы за 10 минут пофиксить тот тупой баг, чтобы запустить расчет на полдня. Или там поработать над курсом по промптингу. Кстати, было и обратное - однажды я потратил все выходные на то, чтобы разобраться с очень мелкой и тупой ошибкой. Хотя внимательно посмотреть один раз - и проблема решена, ну или либо в гпт загнать.
И реально сидишь кайфуешь - почему бы не узнать про символизм в фильме Револьвер, или почитать отзывы на фильм Ненависть 1995 года. Мозг выдает хоть и не ощущение продуктивности, но сколько же это удовольствия.
Что мешает просто сесть и сделать? Ничего! Но как себя заставить? Что сказать мозгу? Почему он панически боится неопределенности, сложности, возможности неудачи и ему нужно столько энергии, чтобы хоть что-то начать?
Хочется по-другому. Захотелось - и можешь откладывать дела с максимальным удовольствием, без чувства вины. Или наоборот - если нужно, сразу садишься за самое важное дело без каких-либо странных мыслей. Короче, не лениться.
А что, если прокрастинация - это не лень. Это страх. Страх не справиться. Сделать плохо. Потратить время впустую. Избежать возможной неудачи. Или есть закономерность: чем больше я думаю о задаче, тем страшнее она кажется. Чем дольше откладываю - тем сложнее она становится? А что если поменять подход? Не думать и не откладывать. Вдруг эта привычка на самом деле бережет наш ресурс?
Давайте ее использовать.
Не нужно сразу бросаться целиком на большую задачу. Если она маленькая и можно сделать здесь и сейчас за пару минут? Давайте сделаем. Занимает времени больше и пора бы уже сделать - давайте поставим минимальную цель: поработать над задачей 1 минуту. Часто этого хватает, чтобы преодолеть барьер входа и втянуться.
Иногда можно договориться с собой: "Буду прокрастинировать, но продуктивно". Вместо соцсетей - почитать литературу. Вместо рилсиков - видосики по развитию. Это все еще прокрастинация, но уже слегка полезная. Поэтому я прокрастинирую через чтение каналов и репостов интересных постов.
Важно себя не ругать. Зачем тратить энергию на чувство вины? Можно просто принять: мы все прокрастинируем. Это не баг, это фича человеческой психики. Вопрос не в том, как полностью избавиться от этого, а в том, как это перевернуть в свою сторону. Понять сигналы тела, использовать применить разные техники, чтобы высвободить эмоции и энергию.
И вообще рекомендую задуматься, почему в нашей жизни появляется прокрастинация и в принципе работать над этим в долгосроке.
Ссылочки: 1, 2, 3, 4
#softskills
Yourstory
Andrew Huberman’s 7-step formula to overcome procrastination
Neuroscientist Andrew Huberman shares a 7-step formula to conquer procrastination, boost focus, and build lasting productivity habits.
❤10🔥8👍3⚡1
Forwarded from Yandex for ML
Как их прогнозировать и не сойти с ума? Об этом нам рассказал Александр Исаков, руководитель группы Прогнозирования в Лавке. Передаём ему слово:
У нас в фудтехе длинная цепочка поставок. Это несколько логистических шагов от производителя до покупателя. На каждом этапе нам нужно прогнозирование, и мы хотим знать: сколько курьерских слотов требуется, чтобы чипсы успели доехать до всех, достаточно ли сейчас места в наших холодильниках для мороженого и каким будет спрос на лёд в июле.
С этим нам помогает модель Prophet. В отличие от других методов (линейная регрессия или ARIMA), в ней под капотом можно учесть праздники и ломаный или насыщенный тренд профита.
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍4❤🔥2
Yandex for ML
Вообще, во все эти выступления вкладываюсь не только я один. Кроме бесценной поддержки моей жены есть большой вклад коллег:
▫️ Во-первых, наши проекты, их возникновение и такой масштаб влияния - результаты целой огромной команды не только нашей аналитики, но и заказчиков, потому что без них и не было бы этих процессов, болей и следовательно, полученных решений.
▫️ Во-вторых, презентации мы всегда отсматриваем внутри нашей команды прогноза, уточняем формулировки, думаем как рассказать и показать что-то интересное без раскрытия NDA - то есть вовлечены все.
▫️ В-третьих, этого бы вообще могло получиться не так классно без наших деврелов с Яндекса и особенно с Райдтеха - ребята сильно вовлекались, ставили дедлайны по презам, помогали всем, чем могли и ставили даже прогоны с экспертами. Еще помогали с дизайном слайдов и даже с мерчом! Так еще и посты с видео по выступлениям публикуют!
Этот результат не был бы достижим без участия и вовлеченности хотя бы одного из этого большого количества людей. Поэтому давайте накидаем реакций для наших коллег💪🏿
#speaking
Этот результат не был бы достижим без участия и вовлеченности хотя бы одного из этого большого количества людей. Поэтому давайте накидаем реакций для наших коллег💪🏿
#speaking
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤🔥5❤4🥰2
Интересное что-то от ребят, кого я читаю v0.22
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить в конце, когда она дорасскажет, что произошло на площади Тяньаньмэнь, либо просто она выдаст, что поговорить на эту тему не получится, то в случае с картиночными модельками она должна хоть что-то выдать. И тут стоит задача понять эти концепты скользких тем.
2. Макс нашел и кратко суммаризовал статью, где рассказывается про систем дизайн Курсора. Интересно, что он сначала индексирует репозиторий, чтобы потом это засунуть в древоподобную структуру - считайте, в некотором роде RAG. Ну и для автодополнения используется контекст уже локальный в том куске кода, для которого он генерируется.
3. Дядька выступил с презентацией, чтобы уже наконец научиться держать нас ллм за рага (именно так называется доклад). В дополнение конечно же выложена презентация. Рекомендую к изучению.
4. Артемий написал небольшой конспект основных советов от CPO OpenAI. Там же сразу есть и вторая часть. Все в духе того, как преуспеть и что вообще делать.
5. Немного квантового вам в ленту - Квант Ресерчер поделился списком репозиториев для квантов. Там есть все: и бэктестинг, и проверка стратегий, и факторный анализ, и даже отчеты. Бонусом есть работа с опционами, но на свой страх и риск.
6*. Гриша рассказал про 2 недавно прочитанные им книги: "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно. Далее цитата: "это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему". Думаю больше слов не надо.
#interesting
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить в конце, когда она дорасскажет, что произошло на площади Тяньаньмэнь, либо просто она выдаст, что поговорить на эту тему не получится, то в случае с картиночными модельками она должна хоть что-то выдать. И тут стоит задача понять эти концепты скользких тем.
2. Макс нашел и кратко суммаризовал статью, где рассказывается про систем дизайн Курсора. Интересно, что он сначала индексирует репозиторий, чтобы потом это засунуть в древоподобную структуру - считайте, в некотором роде RAG. Ну и для автодополнения используется контекст уже локальный в том куске кода, для которого он генерируется.
3. Дядька выступил с презентацией, чтобы уже наконец научиться держать нас ллм за рага (именно так называется доклад). В дополнение конечно же выложена презентация. Рекомендую к изучению.
4. Артемий написал небольшой конспект основных советов от CPO OpenAI. Там же сразу есть и вторая часть. Все в духе того, как преуспеть и что вообще делать.
5. Немного квантового вам в ленту - Квант Ресерчер поделился списком репозиториев для квантов. Там есть все: и бэктестинг, и проверка стратегий, и факторный анализ, и даже отчеты. Бонусом есть работа с опционами, но на свой страх и риск.
6*. Гриша рассказал про 2 недавно прочитанные им книги: "Einstein's Mirror" и "The New Quantum Universe" про теорию относительности и квантовый мир соответственно. Далее цитата: "это правильный микс сути и деталей различных открытий, интуиции за всем этим, и исторического контекста, включая что было неверно и от каких идей отказались и почему". Думаю больше слов не надо.
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.21
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например…
Предыдущий пост тут
Интересное что-то тут
Всех с новой неделей, го почитаем интересное:
1. Рефат поделился подборкой промптинг гайдов для NotebookLM. Удобно применять как RAG по этой базе знаний. Можно например…
❤🔥7⚡2👍2🔥1
Базированные промпты
Наверно каждый из нас как минимум один раз слышал про "принцип garbage in, garbage out". Это когда при работе с ML моделькой мы скармливаем ей плохие или смещенные данные, что на инференсе приводит к очевидно плохим результатам. То же самое и в аналитике - выводы по неправильным данным очевидно garbage.
Самое интересное, что при работе с промптами мы буквально можем столкнуться с той же проблемой, но не со стороны данных для обучения. А со стороны постановки вопроса. То есть с промпта, который подается на вход ллмке.
Давайте разберем самые базовые примеры того, что можно сделать лучше:
1️⃣ Трехслойный запрос
Думаю мы все сойдёмся во мнении, что чем больше контекста получает мозг, тем точнее его выводы при прямо сформулированной задаче. Давайте просто перенесем это на AI. Применяем формулу: ЗАДАЧА + КОНТЕКСТ + ФОРМАТ.
Можно кстати сделать запрос четырехслойным, добавив ограничения (активируют более целенаправленную обработку информации):
Важно указать целевую аудиторию, желаемый объем и конкретные элементы (примеры, списки, схемы)
2️⃣ Применение роли
Легкая одноходовочка с воображением - навязываем определенный паттерн мышления. Это как будто отыграть роль другого человека.
Особо пытливые могут заметить, что можно насуетить и многозодовочку:
Дополнительно кстати роли можно сделать специфичными с временными рамками
3️⃣ Четко структурированный запрос
Промпты можно передать в виде информации, организованной в логические блоки. По сути мы упрощаем задачу для модельки, и сами формируем основные тезисы, которые она должна понять из запроса.
Допустим, принцип пирамиды Минто в промптах, чтобы получить иерархичную последовательность ответа:
Кстати, нормальная тема еще затестить прогрессивное усложнение:
Прикол в том, что по сути своим последовательным раскрытием ответа на вопрос гптха сможет ответить четче.
Кстати, на крайняк можно попросить саму нейронку написать за васпост промпт, или задавать уточняющие вопросы.
Если не знали эту базу, ставьте реакции. А если знаете, делитесь в коментах своими хаками.
#prompt
Наверно каждый из нас как минимум один раз слышал про "принцип garbage in, garbage out". Это когда при работе с ML моделькой мы скармливаем ей плохие или смещенные данные, что на инференсе приводит к очевидно плохим результатам. То же самое и в аналитике - выводы по неправильным данным очевидно garbage.
Самое интересное, что при работе с промптами мы буквально можем столкнуться с той же проблемой, но не со стороны данных для обучения. А со стороны постановки вопроса. То есть с промпта, который подается на вход ллмке.
Давайте разберем самые базовые примеры того, что можно сделать лучше:
Думаю мы все сойдёмся во мнении, что чем больше контекста получает мозг, тем точнее его выводы при прямо сформулированной задаче. Давайте просто перенесем это на AI. Применяем формулу: ЗАДАЧА + КОНТЕКСТ + ФОРМАТ.
Можно кстати сделать запрос четырехслойным, добавив ограничения (активируют более целенаправленную обработку информации):
Собери краткое саммари основ проектирования компрессорных установок для студентов-инженеров с опытом практики на энергетических предприятиях. Выведи ответ тезисно в виде 5 основных идей
Важно указать целевую аудиторию, желаемый объем и конкретные элементы (примеры, списки, схемы)
Легкая одноходовочка с воображением - навязываем определенный паттерн мышления. Это как будто отыграть роль другого человека.
Особо пытливые могут заметить, что можно насуетить и многозодовочку:
Сначала как психолог объясни причины прокрастинации, затем как коуч дай 5 практических советов, а потом как нейробиолог расскажи, что происходит в мозге
Дополнительно кстати роли можно сделать специфичными с временными рамками
Ты - маркетолог из 2030 года. Какие тренды будут актуальны в блоггинге?
Промпты можно передать в виде информации, организованной в логические блоки. По сути мы упрощаем задачу для модельки, и сами формируем основные тезисы, которые она должна понять из запроса.
Допустим, принцип пирамиды Минто в промптах, чтобы получить иерархичную последовательность ответа:
Начни с главного тезиса, затем 3 основных аргумента, к каждому из них добавь 2-3 подпункта с примерами
Кстати, нормальная тема еще затестить прогрессивное усложнение:
Объясни, что такое RAG сначала 5-летнему ребенку, потом студенту, затем Эндрю Ыну
Прикол в том, что по сути своим последовательным раскрытием ответа на вопрос гптха сможет ответить четче.
Кстати, на крайняк можно попросить саму нейронку написать за вас
Если не знали эту базу, ставьте реакции. А если знаете, делитесь в коментах своими хаками.
#prompt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥7❤🔥4⚡1
asisakov
Случайное на случайное задача от коллег Даны два случайных числа x и y, значения которых равномерно распределены от 0 до 1. Какова вероятность того, что округление результата деления одного из чисел на другое будет четным числом? #problem
YouTube
The answer involves π because why wouldn't it? 🙃
If you take two random numbers between 0 and 1 and divide them, what's the probability that rounding the result will give you an even number? Spoiler: it involves everyone's favorite circle constant.
=Chapters=
0:00 - Intro
2:23 - Visualizing the probability…
=Chapters=
0:00 - Intro
2:23 - Visualizing the probability…
🔥4⚡3👍2
Интересное что-то от ребят, кого я читаю v0.23
Предыдущий пост тут
Интересное что-то тут
Немного суммаризации из прочитанного:
1. Евгений поделился бенчмарками ллмок, которые он чекает время от времени. Список внушительный, но ребята даже смогли дополнить что-то в комментариях. Возможно пригодится для ваших неожиданных выводов
2. Сева расписал методы работы с контекстом. Настоятельно рекомендую ознакомиться. Потому что бывает проблематично например при работе в UI Клода на их сайте внезапно столкнуться с лимитом контекста, а желание-то продолжать чат остается. Поэтому разные фишечки могут помочь
3. Константин приложил ссылочку на статью, где они делали Марковские цепи. Интересно поглядеть с точки зрения практического приземления алгоритма. К сожалению, не помню, откуда взял комментарий, поэтому ссылочка на репост.
4. Алексей расписал просто офигенную штуку с тем, чтобы сохранять суммаризации прочитанного как некоторый контекст для быстрого вспоминания. Типа прочитал, забыл, а потом быстро вспомнил из короткой заметки. Планирую затестить в своих учебных моментах.
5. Наш Макс немного расписал про фреймворк HEART и как он используется в продуктовой аналитике. Чисто база, но как инструмент или дополнительная точка оценки - норм вариант
На этом все, кидайте ваши интересные посты в коменты!
#interesting
Предыдущий пост тут
Интересное что-то тут
Немного суммаризации из прочитанного:
1. Евгений поделился бенчмарками ллмок, которые он чекает время от времени. Список внушительный, но ребята даже смогли дополнить что-то в комментариях. Возможно пригодится для ваших неожиданных выводов
2. Сева расписал методы работы с контекстом. Настоятельно рекомендую ознакомиться. Потому что бывает проблематично например при работе в UI Клода на их сайте внезапно столкнуться с лимитом контекста, а желание-то продолжать чат остается. Поэтому разные фишечки могут помочь
3. Константин приложил ссылочку на статью, где они делали Марковские цепи. Интересно поглядеть с точки зрения практического приземления алгоритма. К сожалению, не помню, откуда взял комментарий, поэтому ссылочка на репост.
4. Алексей расписал просто офигенную штуку с тем, чтобы сохранять суммаризации прочитанного как некоторый контекст для быстрого вспоминания. Типа прочитал, забыл, а потом быстро вспомнил из короткой заметки. Планирую затестить в своих учебных моментах.
5. Наш Макс немного расписал про фреймворк HEART и как он используется в продуктовой аналитике. Чисто база, но как инструмент или дополнительная точка оценки - норм вариант
На этом все, кидайте ваши интересные посты в коменты!
#interesting
Telegram
asisakov
Интересное что-то от ребят, кого я читаю v0.22
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить…
Предыдущий пост тут
Интересное что-то тут
Нашлось немножечко интересного:
1. Сергей приложил несколько интересных папир про элаймент картиночных моделей. В чем дело - если ответ текстовой модели можно видоизменить…
❤3👍3🔥2⚡1
Готовлю мини-доклад про типичные паттерны поведения тимлидов (типа игры, в которые мы играем)
Что набралось из таких типичных фраз, по которым скорее всего очевидно, что подразумевается:
1. "Сделаю сам - так быстрее и надежнее"
2. "Сначала согласуйте со мной"
3. "Ты сделал хорошо, но вот тут бы еще немного этого и вот этого…"
4. "Ребята, сорри, это технически сложно/невозможно, и у нас вообще весь бэклог и на 5 квартал распихан"
5. "Давайте закрывать KPI"
Коллеги, есть еще что докинуть?
UPD. 6. "О, я тут такую статью на Хабре прочитал, давайте обратно на TF все переписывать!"
#speaking #softskills
Что набралось из таких типичных фраз, по которым скорее всего очевидно, что подразумевается:
1. "Сделаю сам - так быстрее и надежнее"
2. "Сначала согласуйте со мной"
3. "Ты сделал хорошо, но вот тут бы еще немного этого и вот этого…"
4. "Ребята, сорри, это технически сложно/невозможно, и у нас вообще весь бэклог и на 5 квартал распихан"
5. "Давайте закрывать KPI"
Коллеги, есть еще что докинуть?
UPD. 6. "О, я тут такую статью на Хабре прочитал, давайте обратно на TF все переписывать!"
#speaking #softskills
🔥12❤1