Всё просто, хотите кастомные реакты к постам — кидаете бусты
Please open Telegram to view this post
VIEW IN TELEGRAM
8 164 26🔥6👍3
Есть тут любители и знатоки собак из Астаны?
Почти неделю пытаюсь забрать к себе с улицы пару хороших щенков, чтобы приютить и спасти от суровой уличной жизни. Но ни как не могу поймать — прячутся, не даются🥰
Оказалось, задача непростая:
- Щенки чуть что бегут прятаться в свою дыру
- Их мать часто бывает рядом, либо гуляет неподалёку, поэтому агрессивно хватать их страшновато
Однако, недавно один из них пропал — скорее всего, его кто-то смог забрать. Значит, задача выполнимая.
————
Если среди вас есть смелые, ловкие и уверенные в себе люди из Астаны, которые ещё и умеют обращаться с собаками, и могут помочь с поимкой, пишите, буду благодарен за помощь. Ну или если у вас есть такие знакомые. Как минимум, не помешала бы машина, чтобы потом спастись от их матери🗿
Я и заплатить готов за это, конечно.
В идеале, хотелось бы сделать это с помощью кинолога, но найти такого в нашем городе оказалось крайне сложно.
Ну а вдруг🤷♀️
Почти неделю пытаюсь забрать к себе с улицы пару хороших щенков, чтобы приютить и спасти от суровой уличной жизни. Но ни как не могу поймать — прячутся, не даются
Оказалось, задача непростая:
- Щенки чуть что бегут прятаться в свою дыру
- Их мать часто бывает рядом, либо гуляет неподалёку, поэтому агрессивно хватать их страшновато
Однако, недавно один из них пропал — скорее всего, его кто-то смог забрать. Значит, задача выполнимая.
————
Если среди вас есть смелые, ловкие и уверенные в себе люди из Астаны, которые ещё и умеют обращаться с собаками, и могут помочь с поимкой, пишите, буду благодарен за помощь. Ну или если у вас есть такие знакомые. Как минимум, не помешала бы машина, чтобы потом спастись от их матери
Я и заплатить готов за это, конечно.
В идеале, хотелось бы сделать это с помощью кинолога, но найти такого в нашем городе оказалось крайне сложно.
Ну а вдруг
Please open Telegram to view this post
VIEW IN TELEGRAM
2 67👍8
Николай Тузов
Есть тут любители и знатоки собак из Астаны?
Можете меня поздравить, справились наконец-то
Ох уж эти грустные глаза.. Но ничего, мы будем их любить и заботиться, привыкнут❤️
Как обычно, советы по адаптации в первое время, уходу и т.п. приветствуются.
Визит к ветеринару и консультацию с кинологом, разумеется, уже запланировали.
Ох уж эти грустные глаза.. Но ничего, мы будем их любить и заботиться, привыкнут
Как обычно, советы по адаптации в первое время, уходу и т.п. приветствуются.
Визит к ветеринару и консультацию с кинологом, разумеется, уже запланировали.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
20 234👍61🔥34 1
Николай Тузов
3. Латентность vs Пропускная способность
- Уменьшаем время ответа отдельного запроса → теряем в общем количестве обработанных запросов
- Оптимизируем для обработки большого числа запросов → отдельные запросы могут ждать дольше
- Уменьшаем время ответа отдельного запроса → теряем в общем количестве обработанных запросов
- Оптимизируем для обработки большого числа запросов → отдельные запросы могут ждать дольше
Latency vs пропускная способность
3-й пункт из поста про трейдофы оказался не для всех очевиден:
И это отличный вопрос! Трейдоф между латентностью и пропускной способностью действительно не всегда очевиден на первый взгляд. Давайте разберемся.
Интуитивно кажется, что если мы ускоряем обработку отдельных запросов, то должны иметь возможность обработать их больше. Но в реальных системах всё сложнее.
Самый простой и очевидный пример - батчинг
Ключевые слова: bulk-запросы, пакетная обработка, буферизация, обработка батчами и т.п. У всех этих понятий общая суть.
Это очень популярный подход, наверняка вы о нём много раз слышали (а если нет, то пора бы). Суть в том, чтобы не выполнять какие-то действия по одному, а сначала накапливать и группировать их, а затем выполняем один раз для всей группы.
Во многих случаях это настолько ускоряет работу системы, что без батчинга никуда.
Примеры:
- Запросы в БД: если нам нужно вставить множество записей, мы не вставляем их по одной, мы делаем один большой INSERT. Либо один большой UPDATE, если их надо обновить. Таким образом, мы значительно сокращаем количество обращений к БД (сетевые задержки, обработка отдельных запросов самой базой).
- Логи: обычно сервис не записывают каждую строчку логов сразу же в файл, он сначала накапливает некий буфер, и в какие-то моменты выгружает его в файл и сбрасывает. Таким образом мы экономим на syscall'ах.
Итак, данный подход увеличивает пропускную способность и сокращает накладные расходы. Но что с обработкой отдельных запросов? Очевидно, что обрабатываться они будут дольше.
Во-первых, каждое событие выполняется не сразу же, оно сначала ждёт накопления. Ваша строчка лога могла появиться в файле сразу же, но вместо этого она может там появиться через несколько секунд или даже минут.
Во-вторых, сама обработка пакета может длиться дольше, чем обработка отдельной сущности.
Оптимизация / трэйдоф тут заключается в том, чтобы найти оптимальный размер батча: чем меньше батч, тем меньше latency; чем больше батч, тем выше пропускная способность.
————
Конечно, есть и другие примеры, но они более тонкие и в каждом будет множество оговорок, и зависеть они будут от конкретных кейсов.
👴 А если у вас есть свои крутые примеры, буду очень рад увидеть их в комментариях
#guide #performance
3-й пункт из поста про трейдофы оказался не для всех очевиден:
Может кто-нибудь привести пример неопытному маслёнку чтобы стало понятно как это работает. В смысле как оптимизация одного запроса замедляет остальные?
Вот я присоединяюсь к вопросу, тоже пока не догоняю, как связаны latency и throughput) как будто, если быстрее обрабатываешь запросы, то можешь их и больше обработать, т.к. быстрее освобождаешься
И это отличный вопрос! Трейдоф между латентностью и пропускной способностью действительно не всегда очевиден на первый взгляд. Давайте разберемся.
Интуитивно кажется, что если мы ускоряем обработку отдельных запросов, то должны иметь возможность обработать их больше. Но в реальных системах всё сложнее.
Самый простой и очевидный пример - батчинг
Ключевые слова: bulk-запросы, пакетная обработка, буферизация, обработка батчами и т.п. У всех этих понятий общая суть.
Это очень популярный подход, наверняка вы о нём много раз слышали (а если нет, то пора бы). Суть в том, чтобы не выполнять какие-то действия по одному, а сначала накапливать и группировать их, а затем выполняем один раз для всей группы.
Во многих случаях это настолько ускоряет работу системы, что без батчинга никуда.
Примеры:
- Запросы в БД: если нам нужно вставить множество записей, мы не вставляем их по одной, мы делаем один большой INSERT. Либо один большой UPDATE, если их надо обновить. Таким образом, мы значительно сокращаем количество обращений к БД (сетевые задержки, обработка отдельных запросов самой базой).
- Логи: обычно сервис не записывают каждую строчку логов сразу же в файл, он сначала накапливает некий буфер, и в какие-то моменты выгружает его в файл и сбрасывает. Таким образом мы экономим на syscall'ах.
Итак, данный подход увеличивает пропускную способность и сокращает накладные расходы. Но что с обработкой отдельных запросов? Очевидно, что обрабатываться они будут дольше.
Во-первых, каждое событие выполняется не сразу же, оно сначала ждёт накопления. Ваша строчка лога могла появиться в файле сразу же, но вместо этого она может там появиться через несколько секунд или даже минут.
Во-вторых, сама обработка пакета может длиться дольше, чем обработка отдельной сущности.
Оптимизация / трэйдоф тут заключается в том, чтобы найти оптимальный размер батча: чем меньше батч, тем меньше latency; чем больше батч, тем выше пропускная способность.
————
Конечно, есть и другие примеры, но они более тонкие и в каждом будет множество оговорок, и зависеть они будут от конкретных кейсов.
#guide #performance
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥60👍21 9 4
Технологическая сингулярность
Развитие ИИ и в частности LLM моделей вновь и вновь напоминает мне про концепцию технологической сингулярности — термин далеко не новый, и довольно популярный. Не знать о нём в наше время.. Скажем так, довольно скучно не знать о нём.
Технологическая сингулярность — это гипотетический момент в будущем, когда технологическое развитие станет настолько быстрым и сложным (возможно, благодаря появлению сверхразумного ИИ), что окажется недоступным для понимания обычного человека, кардинально и необратимо меняя саму природу цивилизации.
В чём суть:
Развитие науки и технологий постоянно ускоряется с очень большой скоростью — раньше между важными открытиями и технологическими рывками, которые радикально меняют жизнь людей, могли проходить тысячи и даже сотни тысяч лет, например:
- Освоение огня примерно 1.5 – 0.5 миллиона лет назад фундаментально изменило диету, безопасность и социальную структуру древних людей. Однако следующий сопоставимый по значимости технологический скачок — неолитическая революция (переход к земледелию и оседлости) — произошел лишь спустя сотни тысяч лет, в течение которых базовые технологии выживания менялись крайне медленно.
- От земледелия к письменности и городам: Привычная нам цивилизация — первые города, и письменность и др., начала появляться через 6-7 тысяч лет. В течение этих тысячелетий жизнь людей, всё ещё менялась крайне медленно.
Что значит "медленно"? Если мы возьмём отдельного человека тех времён, то увидим, что все его предки до сотого колена пользовались схожими сельскохозяйственными инструментами (мотыга, простой плуг), строили дома по схожим технологиям, занимались схожим трудом.
Затем развитие ускорялось — периоды между технологическими скачками сокращались до сотен лет:
- От книгопечатания до научной революции: Изобретение книгопечатания стало мощнейшим катализатором. Научная революция, с такими именами как Коперник, Галилей, Кеплер, Ньютон, развернулась в XVI-XVII веках. Между этими событиями около 100-200 лет.
- От паровой машины до электричества: Первая успешно работающая паровая машина дала старт Промышленной революции. А уже к концу XIX века мир увидел широкое внедрение электричества (электродвигатели, освещение), телефона, двигателя внутреннего сгорания. Здесь интервал сократился примерно до 100 лет.
Затем периоды сократились до десятков лет:
- От первого транзистора до ПК и интернета: Изобретение транзистора в 1947 г. заложило основу всей современной электроники. То есть, от фундаментального открытия до технологий, изменивших повседневность, прошло 30-50 лет.
И вот мы здесь. Мир ваших бабушек отличается от вашего так сильно, будто вы на разных планетах жили. Да что там бабушек, моё детство даже близко не похоже на мою сегодняшнюю жизнь — интернет тогда только зарождался (или был медленным и дорогим по dial-up), смартфонов не было, и даже кнопочным примитивным телефонам я когда-то удивлялся, персональные компьютеры были у единиц, а что сейчас творится?
Почему так происходит?
Всё довольно просто и логично — чем более развито общество, тем ему проще развиваться дальше. Банально, такие штуки как книгопечатание, вычислительная техника, интернет и др. ускоряют развитие на порядки. Какому-нибудь Ньютону было намного сложнее заниматься наукой, чем Ландау, а нынешним учёным ещё проще.
Что дальше?
А вот тут уже полный полёт фантазии, все рассуждают кто во что горазд. Давать точные прогнозы тут крайне сложно — мы курс валюты то не можем предсказать, что уж говорить про времена, когда технологические рывки будут происходить каждую секунду, а потом каждую наносекунду. Но рассуждения от этого не становятся менее интересными.
————
В следующих постах я продолжу эту тему — обсудим детальнее развитие LLM и порассуждем о том, что нас ждёт.
А ещё я комментах написал, что можно почитать по этой теме
#технологическая_сингулярность
Развитие ИИ и в частности LLM моделей вновь и вновь напоминает мне про концепцию технологической сингулярности — термин далеко не новый, и довольно популярный. Не знать о нём в наше время.. Скажем так, довольно скучно не знать о нём.
Технологическая сингулярность — это гипотетический момент в будущем, когда технологическое развитие станет настолько быстрым и сложным (возможно, благодаря появлению сверхразумного ИИ), что окажется недоступным для понимания обычного человека, кардинально и необратимо меняя саму природу цивилизации.
В чём суть:
Развитие науки и технологий постоянно ускоряется с очень большой скоростью — раньше между важными открытиями и технологическими рывками, которые радикально меняют жизнь людей, могли проходить тысячи и даже сотни тысяч лет, например:
- Освоение огня примерно 1.5 – 0.5 миллиона лет назад фундаментально изменило диету, безопасность и социальную структуру древних людей. Однако следующий сопоставимый по значимости технологический скачок — неолитическая революция (переход к земледелию и оседлости) — произошел лишь спустя сотни тысяч лет, в течение которых базовые технологии выживания менялись крайне медленно.
- От земледелия к письменности и городам: Привычная нам цивилизация — первые города, и письменность и др., начала появляться через 6-7 тысяч лет. В течение этих тысячелетий жизнь людей, всё ещё менялась крайне медленно.
Что значит "медленно"? Если мы возьмём отдельного человека тех времён, то увидим, что все его предки до сотого колена пользовались схожими сельскохозяйственными инструментами (мотыга, простой плуг), строили дома по схожим технологиям, занимались схожим трудом.
Затем развитие ускорялось — периоды между технологическими скачками сокращались до сотен лет:
- От книгопечатания до научной революции: Изобретение книгопечатания стало мощнейшим катализатором. Научная революция, с такими именами как Коперник, Галилей, Кеплер, Ньютон, развернулась в XVI-XVII веках. Между этими событиями около 100-200 лет.
- От паровой машины до электричества: Первая успешно работающая паровая машина дала старт Промышленной революции. А уже к концу XIX века мир увидел широкое внедрение электричества (электродвигатели, освещение), телефона, двигателя внутреннего сгорания. Здесь интервал сократился примерно до 100 лет.
Затем периоды сократились до десятков лет:
- От первого транзистора до ПК и интернета: Изобретение транзистора в 1947 г. заложило основу всей современной электроники. То есть, от фундаментального открытия до технологий, изменивших повседневность, прошло 30-50 лет.
И вот мы здесь. Мир ваших бабушек отличается от вашего так сильно, будто вы на разных планетах жили. Да что там бабушек, моё детство даже близко не похоже на мою сегодняшнюю жизнь — интернет тогда только зарождался (или был медленным и дорогим по dial-up), смартфонов не было, и даже кнопочным примитивным телефонам я когда-то удивлялся, персональные компьютеры были у единиц, а что сейчас творится?
Почему так происходит?
Всё довольно просто и логично — чем более развито общество, тем ему проще развиваться дальше. Банально, такие штуки как книгопечатание, вычислительная техника, интернет и др. ускоряют развитие на порядки. Какому-нибудь Ньютону было намного сложнее заниматься наукой, чем Ландау, а нынешним учёным ещё проще.
Что дальше?
А вот тут уже полный полёт фантазии, все рассуждают кто во что горазд. Давать точные прогнозы тут крайне сложно — мы курс валюты то не можем предсказать, что уж говорить про времена, когда технологические рывки будут происходить каждую секунду, а потом каждую наносекунду. Но рассуждения от этого не становятся менее интересными.
————
В следующих постах я продолжу эту тему — обсудим детальнее развитие LLM и порассуждем о том, что нас ждёт.
А ещё я комментах написал, что можно почитать по этой теме
#технологическая_сингулярность
Николай Тузов
Технологическая сингулярность Развитие ИИ и в частности LLM моделей вновь и вновь напоминает мне про концепцию технологической сингулярности — термин далеко не новый, и довольно популярный. Не знать о нём в наше время.. Скажем так, довольно скучно не знать…
Развитие LLM моделей — поезд разогнался 😱
Итак, продолжаем. Почему я вновь вспомнил о технологической сингулярности? Как, наверняка, и многие из вас, я начал очень серьезно воспринимать ИИ в момент когда попробовал GitHub Copilot. До него всё это казалось игрушками, мысли были в стиле — "когда-нибудь в далёком будущем будет полезно". Но Copilot всё изменил — он начал писать настоящий код.
Примерно год для меня ничего не менялось, я просто пользовался этим инструментом и мечтал о его дальнейшем развитии. Затем я открыл для себя ChatGPT, который сильно расширил моё взаимодействие с ИИ. Помню свой скепсис и детский восторг, когда он впервые решил мне реальную рабочую задачу! Сейчас, когда он часто решает мои рабочие задачи, вспоминать это особенно забавно.
Потом ChatGPT регулярно улучшался, новые модели затмевали предыдущие. Появлялись крутые аналоги, вроде Claude. Но это было плавно, я успевал привыкнуть и "наиграться".
Ускорение развития
Сейчас же этот поезд так разогнался, что за ним стало сложно угнаться. Всё меняется каждую неделю, а порой и каждый день. Только одна компания выпустит прорывную модель (будь то OpenAI с улучшенным GPT, Anthropic с новым Claude или Google с очередным Gemini), как конкуренты тут же отвечают чем-то еще более мощным.
Вот только что GPT удивлял качеством логических выводов, а Claude уже дышит в спину с новой версией Sonnet. А потом нам дают GPT o3 и o4-mini, которые творят невероятные вещи, да и GPT-4o догоняет Sonnet 3.7 по качеству ответов. А потом появляется Gemini 2.5 Pro от Google с таким контекстным окном, что туда можно засунуть PDF на 1500 страниц, и кажется, что он понимает всё еще глубже.
А ещё появляются ИИ-агенты в виде различных инструментов, которые растут как грибы после дождя — Cursor IDE, Claude Code, Codex от OpenAI и др. Все они тоже взрывают мозг, когда начинаешь пользоваться.
Ну вы видели что творит этот Claude Code?😩
Я уже устал удивляться новинкам, но снова испытал вау-эффект, когда впервые его попробовал.
Я не успеваю!😐
И вот уже даже я, большой любитель ИИ, обожающий все их новинки, не успеваю за всем этим уследить. Серьёзно, я впервые попробовал Gemini пару дней назад, а Claude Code буквально вчера.
Я даже поймал себя на мысли, что пользуюсь ИИ.. "по-старинке" — копирую код из чата и вставляю его руками, как животное (вместо того, чтобы заставить писать агента).
За эти недели, пока я откладывал своё знакомство с новыми инструментами, они уже получили кучу обновлений, стали в разы круче, обросли крутыми гайдами.. Ребятки, прошли не годы, а всего пара недель! Такое ощущение, что я завтра просто моргну, а индустрия улетит за это время далеко вперёд, оставив меня позади.
Выводы?
Конечно, LLM модели вряд ли непосредственно приведут нас к той самой технологической сингулярности и что они эволюционируют в тот самый сильный ИИ.
➡️ Но они точно дадут нам мощный буст в развитии.
Порой слышу: "мы отупеем, ведь ИИ всё делает за нас". Это слабая позиция. Я вижу обратное: мы поумнеем.
ИИ многократно упрощает процесс обучения, изучения новых технологий, получения новых знаний. Становиться умнее теперь намного проще.
А значит, и общее технологическое развитие это только ускорит. Вопрос лишь в том, насколько сильно..
————
Я планирую ещё немного порассуждать на эту тему, так что это не последний пост. Если я что-то не здесь не упомянул или не развернул мысль — вероятно, я сделаю это в отдельном посте.
➡️ Расскажите в комментариях, что думаете про LLM модели, какими инструментами пользуетесь, насколько это помогает вам в работе?
#технологическая_сингулярность #llm #ai
Итак, продолжаем. Почему я вновь вспомнил о технологической сингулярности? Как, наверняка, и многие из вас, я начал очень серьезно воспринимать ИИ в момент когда попробовал GitHub Copilot. До него всё это казалось игрушками, мысли были в стиле — "когда-нибудь в далёком будущем будет полезно". Но Copilot всё изменил — он начал писать настоящий код.
Примерно год для меня ничего не менялось, я просто пользовался этим инструментом и мечтал о его дальнейшем развитии. Затем я открыл для себя ChatGPT, который сильно расширил моё взаимодействие с ИИ. Помню свой скепсис и детский восторг, когда он впервые решил мне реальную рабочую задачу! Сейчас, когда он часто решает мои рабочие задачи, вспоминать это особенно забавно.
Потом ChatGPT регулярно улучшался, новые модели затмевали предыдущие. Появлялись крутые аналоги, вроде Claude. Но это было плавно, я успевал привыкнуть и "наиграться".
Ускорение развития
Сейчас же этот поезд так разогнался, что за ним стало сложно угнаться. Всё меняется каждую неделю, а порой и каждый день. Только одна компания выпустит прорывную модель (будь то OpenAI с улучшенным GPT, Anthropic с новым Claude или Google с очередным Gemini), как конкуренты тут же отвечают чем-то еще более мощным.
Вот только что GPT удивлял качеством логических выводов, а Claude уже дышит в спину с новой версией Sonnet. А потом нам дают GPT o3 и o4-mini, которые творят невероятные вещи, да и GPT-4o догоняет Sonnet 3.7 по качеству ответов. А потом появляется Gemini 2.5 Pro от Google с таким контекстным окном, что туда можно засунуть PDF на 1500 страниц, и кажется, что он понимает всё еще глубже.
А ещё появляются ИИ-агенты в виде различных инструментов, которые растут как грибы после дождя — Cursor IDE, Claude Code, Codex от OpenAI и др. Все они тоже взрывают мозг, когда начинаешь пользоваться.
Ну вы видели что творит этот Claude Code?
Я уже устал удивляться новинкам, но снова испытал вау-эффект, когда впервые его попробовал.
Я не успеваю!
И вот уже даже я, большой любитель ИИ, обожающий все их новинки, не успеваю за всем этим уследить. Серьёзно, я впервые попробовал Gemini пару дней назад, а Claude Code буквально вчера.
Я даже поймал себя на мысли, что пользуюсь ИИ.. "по-старинке" — копирую код из чата и вставляю его руками
За эти недели, пока я откладывал своё знакомство с новыми инструментами, они уже получили кучу обновлений, стали в разы круче, обросли крутыми гайдами.. Ребятки, прошли не годы, а всего пара недель! Такое ощущение, что я завтра просто моргну, а индустрия улетит за это время далеко вперёд, оставив меня позади.
Выводы?
Конечно, LLM модели вряд ли непосредственно приведут нас к той самой технологической сингулярности и что они эволюционируют в тот самый сильный ИИ.
Порой слышу: "мы отупеем, ведь ИИ всё делает за нас". Это слабая позиция. Я вижу обратное: мы поумнеем.
ИИ многократно упрощает процесс обучения, изучения новых технологий, получения новых знаний. Становиться умнее теперь намного проще.
А значит, и общее технологическое развитие это только ускорит. Вопрос лишь в том, насколько сильно..
————
Я планирую ещё немного порассуждать на эту тему, так что это не последний пост. Если я что-то не здесь не упомянул или не развернул мысль — вероятно, я сделаю это в отдельном посте.
#технологическая_сингулярность #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍102🔥24 14 9
Николай Тузов
Развитие LLM моделей — поезд разогнался 😱 Итак, продолжаем. Почему я вновь вспомнил о технологической сингулярности? Как, наверняка, и многие из вас, я начал очень серьезно воспринимать ИИ в момент когда попробовал GitHub Copilot. До него всё это казалось…
Какими ИИ инструментами вы пользуетесь?
Как я писал в предыдущем посте, сейчас на рынке развёлся огромный зоопарк ИИ инструментов. Я сам успел опробовать лишь малую часть тех, о которых я слышал, а я ведь слышал далеко не о всех..
Поделитесь, какими вы пользуетесь? Как именно используете? Для каких задач? Буду особенно благодарен за подробные комменты❤️
Интересует вообще всё, например:
- ИИ-агенты: Claude Code, Cursor IDE и др.
- Умные автокомплиты: Copilot, JetBrains AI Assistant и т.п.
- Плагины для IDE: Zencoder и т.п.
- Чаты: ChatGPT, Claude, ...
- Встроенные ИИ фичи разных IDE: JetBrains, Zed, ...
- Прочие утилиты, вроде того же Raycast AI
- Что там ещё придумали..?
Интересно также, устраиваете ли вы какие-то "пайплайны" для них? К примеру, одна модель вам что-то нагенерировала, другую попросили поревьюить и т.п.
————
По итогам я чуть позже напишу обзорный пост или даже статью — расскажу и про свой опыт, и выжимку из ваших рассказов.
⚠️ Просьба писать только по делу, всё лишнее я буду удалять, чтобы проще было читать.
Если хотите подискутировать на тему ИИ, можете это делать в комментах под соседними постами.
#опрос
Как я писал в предыдущем посте, сейчас на рынке развёлся огромный зоопарк ИИ инструментов. Я сам успел опробовать лишь малую часть тех, о которых я слышал, а я ведь слышал далеко не о всех..
Поделитесь, какими вы пользуетесь? Как именно используете? Для каких задач? Буду особенно благодарен за подробные комменты
Интересует вообще всё, например:
- ИИ-агенты: Claude Code, Cursor IDE и др.
- Умные автокомплиты: Copilot, JetBrains AI Assistant и т.п.
- Плагины для IDE: Zencoder и т.п.
- Чаты: ChatGPT, Claude, ...
- Встроенные ИИ фичи разных IDE: JetBrains, Zed, ...
- Прочие утилиты, вроде того же Raycast AI
- Что там ещё придумали..?
Интересно также, устраиваете ли вы какие-то "пайплайны" для них? К примеру, одна модель вам что-то нагенерировала, другую попросили поревьюить и т.п.
————
По итогам я чуть позже напишу обзорный пост или даже статью — расскажу и про свой опыт, и выжимку из ваших рассказов.
Если хотите подискутировать на тему ИИ, можете это делать в комментах под соседними постами.
#опрос
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥22
Forwarded from Denis Sexy IT 🤖
Помните я нахваливал GenAI как прекрасный способ погрузиться в практику и сразу начать разбираться в теме, попутно ее изучая?
Наконец-то обстоятельно изучили то, как влияет ChatGPT на студентов в процессе обучения и мои выводы частично подтвердили:
— Ресечеры проанализировали 51 исследование за период 2022 — 2025 год, где студенты использовали ChatGPT и нашли, что апп значительно повышает оценки, в умеренной степени улучшает отношение к учёбе и развивает навыки сложного мышления (например, умение находить оригинальные решения)
— Особенно полезен ChatGPT на курсах, где важны практические умения или решение реальных проблем (например, STEM-направления: естественные науки, технология, инженерия и математика), причём наибольший скачок в показателях происходит при «проблемно-ориентированном» подходе, когда студентам предлагают задачи из реальной жизни
— Также выяснили, что наиболее ощутимый эффект наблюдается, если студенты пользуются ChatGPT примерно 4-8 недель подряд – в короткие сроки они не успевают освоить правильный промптинг, а при слишком длинном периоде использования, могут перестать думать самостоятельно (сюрприз)
— Когда ChatGPT применяют не просто как обычный инструмент (типа «быстрый помощник»), а как «виртуальный наставник» (с персональными подсказками и обратной связью), это даёт больший толчок к развитию критического и творческого мышления
Если совсем коротко: ChatGPT + другие методы обучения + научить студентов проверять ответы от LLM = повысятся не только знания, но бонусом и любознательность и уверенность в учёбе
ChatGPT <3
Наконец-то обстоятельно изучили то, как влияет ChatGPT на студентов в процессе обучения и мои выводы частично подтвердили:
— Ресечеры проанализировали 51 исследование за период 2022 — 2025 год, где студенты использовали ChatGPT и нашли, что апп значительно повышает оценки, в умеренной степени улучшает отношение к учёбе и развивает навыки сложного мышления (например, умение находить оригинальные решения)
— Особенно полезен ChatGPT на курсах, где важны практические умения или решение реальных проблем (например, STEM-направления: естественные науки, технология, инженерия и математика), причём наибольший скачок в показателях происходит при «проблемно-ориентированном» подходе, когда студентам предлагают задачи из реальной жизни
— Также выяснили, что наиболее ощутимый эффект наблюдается, если студенты пользуются ChatGPT примерно 4-8 недель подряд – в короткие сроки они не успевают освоить правильный промптинг, а при слишком длинном периоде использования, могут перестать думать самостоятельно (сюрприз)
— Когда ChatGPT применяют не просто как обычный инструмент (типа «быстрый помощник»), а как «виртуальный наставник» (с персональными подсказками и обратной связью), это даёт больший толчок к развитию критического и творческого мышления
Если совсем коротко: ChatGPT + другие методы обучения + научить студентов проверять ответы от LLM = повысятся не только знания, но бонусом и любознательность и уверенность в учёбе
ChatGPT <3
Denis Sexy IT 🤖
Помните я нахваливал GenAI как прекрасный способ погрузиться в практику и сразу начать разбираться в теме, попутно ее изучая? Наконец-то обстоятельно изучили то, как влияет ChatGPT на студентов в процессе обучения и мои выводы частично подтвердили: — Ресечеры…
Это к слову о недавней дискуссии в комментариях на тему «от ИИ тупеют»
Я бегло прошелся по статье, и в целом автор этого поста все правильно подытожил.
Если что, публикация сделана не в самом Nature. Humanities and Social Sciences Communications — это отдельный, более специализированный и открытый (open access) журнал, также издаваемый Nature Portfolio. Но он тоже достаточно авторитетный.
Я бегло прошелся по статье, и в целом автор этого поста все правильно подытожил.
Если что, публикация сделана не в самом Nature. Humanities and Social Sciences Communications — это отдельный, более специализированный и открытый (open access) журнал, также издаваемый Nature Portfolio. Но он тоже достаточно авторитетный.
👍22 10😁5 5
Николай Тузов
Ух, моя статейка выиграла в конкурсе "Технотекст" от Хабра, в категории "Программирование"
Очень приятно, день начался с хорошей новости. Новая ачивка получена, теперь я спокоен.
Спасибо вам за поддержку, без вас эту статью могли и не заметить❤️
Очень приятно, день начался с хорошей новости. Новая ачивка получена, теперь я спокоен.
Спасибо вам за поддержку, без вас эту статью могли и не заметить
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Пока не роботы: победители «Технотекста 7»
Приятно видеть, что люди всё ещё мечтают, и исполняют мечты в жизнь. Именно такие люди двигают цивилизацию вперёд. Раньше их сжигали на костре, а теперь мы ими восхищаемся и награждаем победителей...
8🔥240 49 32👍27
Подробности тут
Демку игры уже можно скачать в Steam бесплатно. Полноценный релиз будет в этом году.
Игру разрабатывает Искандер (его хабр), и занимается ею фултайм, вкладывая всю душу
Я считаю, такое надо активно поддерживать. Часто вы встречаете полноценные игры, написанные на Go?
Как мы можем поддержать: добавить игру в список желаемого и поиграть в демку.
От автора:
NebuLeet - это Космические Рейнджеры с элементами X-com для программистов. Собираем отряд космических пилотов, конструируем корабли из деталей, программируем их поведение. Игра построена так, что можно играть как исключительно через программирование, так и совсем без него
Игра пока не опенсорс, но через пол года после релиза он обещает выложить исходники. Но некоторые компоненты доступны уже сейчас.
А если хотите обсудить GameDev на Go, то вам сюда: @go_gamedev
Не реклама, от чистого сердца
#gamedev
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥119👍16 13 3
Context7 — актуальная документация для LLM
https://context7.com/
Недавно услышал про этот сервис, идея очень интересная.
В чём суть:
Бывают ситуации, когда ваша LLM плохо знакома с какой-то технологией, в результате чего она либо начинает много галлюцинировать, либо просто отказывается работать. Например, говорят, что все модели плохо работают с Ebitengine.
Как мы обычно решаем такую проблему? В лучшем случае, если ваша LLM умеет гуглить и делает это хорошо, она может сама найти документацию и разобраться. Но всё же документация пишется для людей, не всегда легко находится, не всегда формат хорошо подходит для ИИ. А в худшем случае ваша LLM вообще не умеет гуглить или ходить в сеть, и тогда приходится совсем уж костыли собирать.
Что предлагают авторы Context7:
Вся документация собрана в одном источнике, имеет общий формат, оптимизированный под LLM , и доступна по MCP.
К примеру, вот так выглядит документация по тому же Ebitengine.
————
Я пользовался этой штукой совсем мало. В целом, профит действительно есть, но всё не настолько круто, как описывают авторы. Но скорее потому, что сами ИИ-сервисы и агенты пока не заточены по такое — к примеру, далеко не всегда догадываются туда заглянуть, приходится просить ясно. Если я со временем поменяю своё мнение, обязательно поделюсь отдельно.
👴 Если вы тоже знакомы с Context7, поделитесь своим опытом в комментах. Ну или просто, можете поделиться мыслями, как вам идея?
#llm
https://context7.com/
Недавно услышал про этот сервис, идея очень интересная.
В чём суть:
Бывают ситуации, когда ваша LLM плохо знакома с какой-то технологией, в результате чего она либо начинает много галлюцинировать, либо просто отказывается работать. Например, говорят, что все модели плохо работают с Ebitengine.
Как мы обычно решаем такую проблему? В лучшем случае, если ваша LLM умеет гуглить и делает это хорошо, она может сама найти документацию и разобраться. Но всё же документация пишется для людей, не всегда легко находится, не всегда формат хорошо подходит для ИИ. А в худшем случае ваша LLM вообще не умеет гуглить или ходить в сеть, и тогда приходится совсем уж костыли собирать.
Что предлагают авторы Context7:
Вся документация собрана в одном источнике, имеет общий формат, оптимизированный под LLM , и доступна по MCP.
К примеру, вот так выглядит документация по тому же Ebitengine.
————
Я пользовался этой штукой совсем мало. В целом, профит действительно есть, но всё не настолько круто, как описывают авторы. Но скорее потому, что сами ИИ-сервисы и агенты пока не заточены по такое — к примеру, далеко не всегда догадываются туда заглянуть, приходится просить ясно. Если я со временем поменяю своё мнение, обязательно поделюсь отдельно.
#llm
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍12 7 4
Николай Тузов
Уже доступно, кстати UPD: тут можно почитать о всех обновлениях
Моё мнение по новым моделям Claude
Итак, вчера я весь день просидел с Claude Code, возился со своим Telegram-ботом, используя модель Opus 4. Также много общался с этой моделью в чате. Этого мало, чтобы написать полноценный обзор, поэтому пока коротенечко.
Sonnet 4 я пока не пробовал вообще, поэтому по ней ничего не могу сказать.
Честно, чудес и прорывов я тут не наблюдаю. Да, Opus 4 работает заметно лучше, чем Sonnet 3.7. Но это просто уверенный шаг вперёд, не более. Я изначально ожидал серьезный прорыв (как, наверное, и многие из вас), поэтому слегка разочаровался.
В любом случае, я очень доволен!
Opus 4 всё делает лучше: более чётко следует инструкциям, пишет более качественный код, делает меньше косяков. Но до идеала пока далеко, косяки всё ещё есть, и от инструкций она не редко отклоняется.
Надо признать, что в сложных задачах GPT-o3 всё ещё выглядит заметно лучше.
По поводу лимитов:
В комментариях люди писали, что на тарифе Max за $100 Opus 4 у них стал довольно быстро выедать токены, и они начали упираться в лимиты, хотя при Sonnet 3.7 у них такого не случалось ни разу.
У меня план Max за $200, и я так ни разу и не исчерпал свой лимит, хотя пользовался довольно активно. Кроме того, только в этом тарифе можно выбрать Opus 4 напрямую (за $100 можно выбрать либо Sonnet 4, либо дефолт, который сам по каким-то критериям выбирает между моделями).
Напомню, что Max за $100 даёт х5 лимиты от базового тарифа, а за $200 — х20
————
А как вам новые модели? Успели попробовать?
#llm #claude
Итак, вчера я весь день просидел с Claude Code, возился со своим Telegram-ботом, используя модель Opus 4. Также много общался с этой моделью в чате. Этого мало, чтобы написать полноценный обзор, поэтому пока коротенечко.
Sonnet 4 я пока не пробовал вообще, поэтому по ней ничего не могу сказать.
Честно, чудес и прорывов я тут не наблюдаю. Да, Opus 4 работает заметно лучше, чем Sonnet 3.7. Но это просто уверенный шаг вперёд, не более. Я изначально ожидал серьезный прорыв (как, наверное, и многие из вас), поэтому слегка разочаровался.
В любом случае, я очень доволен!
Opus 4 всё делает лучше: более чётко следует инструкциям, пишет более качественный код, делает меньше косяков. Но до идеала пока далеко, косяки всё ещё есть, и от инструкций она не редко отклоняется.
Надо признать, что в сложных задачах GPT-o3 всё ещё выглядит заметно лучше.
По поводу лимитов:
В комментариях люди писали, что на тарифе Max за $100 Opus 4 у них стал довольно быстро выедать токены, и они начали упираться в лимиты, хотя при Sonnet 3.7 у них такого не случалось ни разу.
У меня план Max за $200, и я так ни разу и не исчерпал свой лимит, хотя пользовался довольно активно. Кроме того, только в этом тарифе можно выбрать Opus 4 напрямую (за $100 можно выбрать либо Sonnet 4, либо дефолт, который сам по каким-то критериям выбирает между моделями).
Напомню, что Max за $100 даёт х5 лимиты от базового тарифа, а за $200 — х20
————
А как вам новые модели? Успели попробовать?
#llm #claude
👍20😁4 4 1
Николай Тузов
Моё мнение по новым моделям Claude Итак, вчера я весь день просидел с Claude Code, возился со своим Telegram-ботом, используя модель Opus 4. Также много общался с этой моделью в чате. Этого мало, чтобы написать полноценный обзор, поэтому пока коротенечко.…
Ну ладно, хотите что-то более интересное? 🧙
Вот вам изюминка
Это PR в игру Roboden. Все изменения, и даже текст PR-а полностью написаны Claude Code с моделью Opus 4, без моего вмешательства. Работал он примерно минут 20-30.
Автор игры — Искандер, о котором я писал выше. Он уже оценил правки, и ему в целом понравилось (он, конечно, в курсе, что код написан LLM).
Задачу я выбрал рандомно из нескольких предложенных самим автором. Выбирал то, что мне проще всего будет потом потестить.
Хорошая демонстрация того, на что сейчас способен Claude Code
Вот вам изюминка
Это PR в игру Roboden. Все изменения, и даже текст PR-а полностью написаны Claude Code с моделью Opus 4, без моего вмешательства. Работал он примерно минут 20-30.
Автор игры — Искандер, о котором я писал выше. Он уже оценил правки, и ему в целом понравилось (он, конечно, в курсе, что код написан LLM).
Задачу я выбрал рандомно из нескольких предложенных самим автором. Выбирал то, что мне проще всего будет потом потестить.
Хорошая демонстрация того, на что сейчас способен Claude Code
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
feat(ui): add toggleable health bars for all units by justskiv · Pull Request #26 · quasilyte/roboden-game
Add toggleable health bars for all units
Summary
This PR adds a toggleable health bar display feature that shows unit health above all game entities. Players can press Z to toggle the health bars o...
Summary
This PR adds a toggleable health bar display feature that shows unit health above all game entities. Players can press Z to toggle the health bars o...
🔥28😁5 3 2
Николай Тузов
Давно не было апдейтов по вакансиям, и меня всё чаще об этом спрашивают. А просто найм был приостановлен, писать было нечего.
И вот сейчас найм возобновили, открылось много вакансий для Go-разработчиков. У нас это случается не часто, так что не упустите момент.
Не забудьте написать, что вы от меня
Например, так:
Я от Николая
Важные моменты:
Грейды: Senior и Middle
Зарплатные вилки: о них вам расскажут HR-ы, но они вполне соответствуют европейскому рынку
Удалёнка возможна из любой страны, кроме РФ и РБ, к моему большому сожалению. Но есть пакеты для релокации (см. ниже).
————
Официальная информация, требования и условия по ссылке выше, а здесь я напишу честно от себя, как есть.
Можете также глянуть мои предыдущие посты на эту тему: раз, два.
Почему сейчас идеальное время присоединиться к нам?
Формально Plata — это финтех-стартап в Мексике.
По сути, это банк — тот же Тинькофф, только лучше.
Раньше я рассказывал, что главной плюшкой для меня было участие в создании банка с нуля. Сейчас мы уже запустились, стали единорогом (стоимость $1.5 млрд), у нас более миллиона клиентов.
Получается, "с нуля" уже не получится, да? А вот и нет! В каком-то смысле получится — недавно нам одобрили банковскую лицензию
Это значит, что предстоит разработать с нуля ещё много нового:
- Прямые переводы в другие банки (ранее только через партнёров)
- Работа с дебетовыми картами (ранее были только кредитки)
- И многое другое
Что лично мне тут нравится?
Я работаю в Плате с самого старта вот уже 3 года, и даже не думаю увольняться
Почему:
- Возможность участвовать в развитии банка с нуля. Сейчас особенно интересный и важный этап.
- Сложные и интересные проекты, задачи: мы всё ещё очень активно развиваемся, постоянно появляется что-то новое. К примеру, в моей команде уже почти пол сотни сервисов
- Европейская зарплата в евро, но при все коллеги из разработки родом из СНГ, родные по духу
Соответственно, не придётся общаться с ними на английском.
- Полноценная удалёнка и гибкий график. К примеру, в моей команде есть коллеги от Португалии (GMT+1) до Казахстана (GMT+5). Каждый работает так, как ему удобно.
- AI-friendly компания
Использование ИИ только поощряется: компания оплачивает львинную долю моих подписок на ИИ-инструменты и даже выдаёт токены для доступа к API различных LLM, чтобы автоматизировать рутину и облегчить жизнь команде.
- Высокий уровень профессионализма: практически все коллеги очень сильные специалисты, всегда есть чему поучиться. Каких-то посредственных ребят я тут ни разу не встречал.
————
Если есть вопросы по условиям и т.п., пишите в комментариях, наши замечательные HR-ы вам на них ответят
#вакансия #plata
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥84 30 16 6
https://habr.com/ru/articles/917300/
В Стиме сейчас проходит Steam Next Fest 2025, в рамках которого доступно 2500 демо-версий игр, которые выйдут в этом году.
Среди них есть 18 игр с тегом programming. Искандер изучил их все и написал об этом пост на Хабре, рекомендую
Ну и да, обратите внимание на важную мысль:
Steam Next Fest даёт небольшой шанс собрать хотя бы немного внимания от игроков, даже если игра не имела медийного влияния ранее. Поэтому, если вам понравился какой-то из проектов выше, добавьте его в вишлист. Этого может быть достаточно, чтобы игры хотя бы минимально окупились и у разработчиков были шансы делать больше таких игр.
Я вообще подумываю о том, чтобы купить все, которые понравились, даже если не буду в них играть
Просто чтобы поддержать разработчиков.
#gamedev #games4programmers
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Все игры для программистов со Steam Next Fest 2025
Наступил Steam Next Fest 2025 — нам стало доступно 2500 (!) демок игр, которые выйдут в релиз уже в этом году! Из них под тег programming выставлен только у 18. Давайте посмотрим на каждую из них!...