Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
❤️ Отдадим Лиру — умную и дрессированную собачку (Астана)

Коротко и по делу:

- Возраст ~4-5 месяцев
- Здорова, прошла все проверки ветеринаров
- Отлично обучается: знает базовые команды, быстро схватывает новое
- Подготовлена к жизни дома
- Полностью бесплатно, плюс дарим курс с нашим кинологом (если вы из Астаны)

Тут можно посмотреть видео с её тренировкой

Предыстория:

Мы давно хотели завести собаку, но только одну. И вот недавно нашли на улице двух замечательных щенков и решили приютить обоих, т.к. было очень жалко оставлять кого-то из них в одиночестве. При этом, мы с самого начала понимали, что не потянем обоих, и планировали кого-то из них отдать в хорошие руки.

Очень грустно и тяжело будет с кем-то из них расставаться, но наш опыт только подтвердил предположения — двух собак мы не потянем, слишком сложно.

Почему отдаём именно Лиру?

Лира во многом лучше своего брата: заметно умнее, быстрее учится, у неё красивый окрас, она энергичная и смелая. По словам нашего кинолога, у неё большой потенциал для дальнейшего развития.

Однако Тайга сумел попасть нам прямо в сердце: он более ласковый, чаще сам идёт на контакт, постоянно просит чтобы его гладили, всегда первый бежит навстречу. В общем, в его глазах я вижу больше преданности и любви к нам, и после такого мы уже не сможем с ним расстаться.

Что со здоровьем и воспитанием?

Щенки полностью здоровы, выведены паразиты, скоро завершим вакцинацию. Примерно через месяц Лира будет готова переехать в новый дом. Всё это время мы продолжаем занятия с кинологом, чтобы передать вам полностью подготовленную собаку.

Как забрать?

Идеально, если вы из Астаны, но если живёте в другом городе Казахстана — пишите, обсудим и, возможно, доставим её лично.

Также мы готовы оплатить вам курс занятий с нашим замечательным кинологом, который знает Лиру буквально с "пелёнок", и научит вас правильно обращаться с ней.

В общем, вам достаётся идеальная собака "под ключ". Будь она у нас одна, мы бы ни за какие деньги её не отдали 🥰

————

Пишите мне в личку, отвечу на все вопросы и расскажу подробней о ней, если понадобится.

Перед передачей познакомимся, чтобы убедиться, что вы действительно подходите друг другу 🐶

Если вы не можете забрать Лиру к себе, но у вас есть хорошие знакомые, которым можно доверять, буду очень благодарен, если познакомите нас.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
89🔥25
Какими ИИ-инструментами я пользуюсь и сколько это стоит 😩

Часто спрашивают об этом, поэтому держите полноценный пост

1. Claude: $200 (частично компенсирует компания, меньше половины стоимости)

Это моя любимая модель, и их чат-интерфейс долгое время был моим основным ИИ-инструментом. Использую в основном для работы с кодом.

Сначала я оплачивал стандартную подписку за $20, но часто упирался в лимиты, и очень ждал, когда они уже позволят официально увеличить лимиты, я был готов платить больше.

Поэтому, как только появился Max план, я сразу же взял самый дорогой, за $200. Да, это очень дорого, но в моём случае вполне оправдано, т.к. точно окупается.

Потом в подписку Max добавили ещё и Claude Code, да ещё и новые модели вышли (Opus 4, Sonnet 4), и я понял, что Max-подписка теперь со мной навсегда 🥰

2. ChatGPT: $20 $200 😩

Даа... Вчера я купил PRO-подписку, чтобы потестить их хвалёный o3-pro. Скорее всего, со следующего месяца я вернусь на базовый план за $20, потому что слишком дорого, а профитов мало. Тем более, лимиты на GPT-o3 подняли, и мне его будет хватать за глаза.

Зачем, если есть Claude?

Потому что у каждого из них есть свои киллер-фичи. К примеру, когда нужно провести небольшое исследование, тут равных GPT-o3 нет. И я говорю не про DeepSearch, а обычные запросы к o3.

3. Gemini: $20 $0 (корпоративная подписка)

Модель Gemini 2.5pro очень хороша, и становится всё лучше и лучше. По данным той LLM Arena, это самая сильная модель на сегодня.

Как сервис, чат-интерфейс гемини пока сыроват. Но модель очень интересная, и есть свои киллер-фичи, например у неё огромный контекст (пишут, что туда может влезть PDF на 1500 страниц).

4. Raycast AI+: $20

Raycast - это бесплатная утилита для MacOS. Если у вас мак, и вы её ещё не поставили — срочно исправляйте это! Шикарный инструмент, без которого я уже как без рук.

Платить там предлагается только за AI фичи, что не обязательно. Но оно того стоит! Даже если у вас есть подписка на Claude или GPT, всё равно стоит и тут купить (либо перейти на Raycast AI), потому что они сделали лучший интерфейс для работы с LLM. Кроме того, по единой подписке вам становятся доступны вообще все актуальные модели разных компаний (GPT, Claude, Gemini и др.)

Основная фишка — можно создавать ИИ команды и интегрировать их в ОС. К примеру, выделяешь текст на любом языке в любом окне, нажимаешь хоткей и у тебя вылезает попап с переводом или даже разбором текста, согласно сохранённому промту. Очень удобно, постоянно пользуюсь.

Привычный всем интерфейс чата тут тоже есть

5. Cursor IDE: $0 (корпоративная подписка)

Иногда пользуюсь, но пока не сильно зашло. Claude Code намного лучше. Но в целом инструмент очень крутой, стараюсь поглядывать за их развитием.

6. JetBrains AI Assistant: $0

Мне его бесплатно выдали ребята из JetBrains как блогеру.

Изначально он мне совсем не понравился. Но после недавнего большого обновлениях, стал на удивление хорош! Особенно мне нравится их чат прямо в IDE, который теперь умеет разбираться в твоём коде прямо как Cursor.

7. Github Copilot: $0 (корпоративная подписка)

Долгое время я оплачивал сам, но сейчас перешел на корпоративную подписку. Эта штука уже воспринимает как нечто стандартное и привычное, без него писать код грустно.

8. Zed AI и Zencoder: $0 (ограничился trial-версиями)

Zed - довольно популярная и интересная молодая IDE, в которую недавно завезли агентский режим ИИ.

Zencoder - плагин для разных IDE, который также даёт агентский режим и чат с ИИ. Пожалуй, один из лучших подобных плагинов на сегодня, с очень интересными концепциями.

Оба этих инструмента я потестить в trial-режиме. В целом, интересно, но у меня и без того хватает инструментов, так что платить не стал.

0. Claude, ChatGPT и Raycast для мамы: $60 $40

Мама у меня продвинутая, активно всем этим пользуется, я только за. Так что, приходится платить 🌚

Raycast ей не сильно зашел, так что от него отказались недавно

————

Если вам интересно, могу потом отдельно более подробно рассказать про эти инструменты. Ну и про o3-pro тоже планирую пост написать, поделиться впечатлениями.

#llm
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥81👍30118
Оцените крутость Claude Opus 4

Я читал вот эту статью про проблемы DI в Go. Я раньше не пользовался подобными штуками и не до конца вообще понял суть подхода. Решил попросить Claude, чтобы он мне растолковал.

Я скинул ему статью и написал очень корявенький промт. И вот что получилось. Я понял, что мне не нужно даже статью читать, т.к. Клод справился прекрасно, объяснил мне лучше, чем кожаный автор 😐

Правда, изначально он начал мне объяснять на коробочках и печеньках, поэтому пришлось уточнить, что я не ребёнок 👍

Но статью я всё же дочитаю из уважения к автору, тема интересная ❤️

————

Пост про саму статью и моё мнение о ней тут. Дискутировать на тему DI предлагаю там же.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4912😁7
👩‍💻 Docker и Podman научились запускать LLM. Что это значит для нас?

Недавно и Docker, и Podman добавили возможность быстро и просто запускать LLM прямо в контейнерах, и выглядит это не сложнее, чем docker run.

В чём суть:

— В Docker добавили команду docker model (пока только на macOS с Apple Silicon). Теперь модели можно качать из Docker Hub и запускать в один клик, получая OpenAI-совместимый API.

— Podman с помощью расширения Podman AI Lab позволяет делать примерно то же самое, но ещё и с удобным GUI.

Почему это круто?

1. Теперь не надо мучиться с ручной установкой и настройкой LLM: пара кликов, и готово. Работает локально и без отправки данных куда-то в облако.
Привет всем, кто боится "сливать" рабочий код корпорациям! ❤️

2. Единый подход к упаковке моделей: модели хранятся и распространяются через те же механизмы, что и обычные образы. Удобно и надёжно для CI/CD и не только.

3. Значительно проще экспериментировать и интегрировать LLM в проекты даже для тех, кто раньше с моделями не работал.

4. Хороший толчок для индустрии — всё больше LLM-приложений будет появляться локально, без привязки к облачным сервисам.

Как было раньше?

До этого для локального запуска моделей приходилось возиться с кучей инструментов:

- Ollama (типа Docker для LLM, самый популярный вариант)
- LM Studio, GPT4All (GUI для тех, кто не любит терминал)
- llama.cpp (низкоуровневая штука, на которой всё построено)

Проблема была в том, что это всё жило отдельной жизнью от основной инфраструктуры. Модели управлялись отдельно, настройка окружения — отдельная песня с Python, CUDA и прочими радостями.

————

Да, локальные модели вряд ли когда-то полностью заменят облачные, просто потому что дома нам недоступны такие мощности, как у больших компаний. Но часть работы им всё же удастся со временем делегировать, особенно с развитием самих моделей.

Всё это выглядит как большой подарок мне на день рождения! 😏
Потому что оно уже скоро, и я заказал себе в подарок ПК с RTX 5090 — в основном, чтобы играть в игры, но и с моделями грех не поразвлекаться, чтобы такой монстр без дела не простаивал.


Если кто-то из вас уже успел с этим поиграться, делитесь в комментариях, как вам?

#docker #podman #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
472613😁3
Николай Тузов
Даа... Вчера я купил PRO-подписку, чтобы потестить их хвалёный o3-pro
Что я могу сказать про o3-pro?

Честно — я её не понял 😩
Похоже, просто выкинул $200 на ветер

Я очень люблю ChatGPT, хотя моим фаворитом остаётся Claude. Особенно сильно я полюбил GPT-o3, причём для самых разных задач:

- Она отлично справляется с небольшими исследованиями, фактчекингом и сравнением устройств (например, помогает выбрать монитор и т.п.)

- Очень качественно пишет код: почти всегда он сразу готов к использованию, без лишних усложнений и глупых ошибок

Кроме того, я много слышал про какую-то «очень крутую и дорогую модель o1-pro».

И вот свершилось, все так этого ждали — pro-модель обновили! Теперь можно пользоваться GPT o3-pro, за какие-то жалкие $200.

Конечно, я не смог устоять, оплатил подписку и… ничего особенного 👍
o3-pro думает над каждым вопросом по полчаса, при этом выдавая ответы не намного лучше обычной o3 — а иногда даже хуже.

Да, я слышал, что воспринимать её нужно иначе — не как привычный чат, а как машину для сложных задач, которой ты даёшь максимум контекста и оставляешь долго думать (хотя контекст там всё равно сильно меньше, чем у того же Gemini 2.5pro).

И да, бывают случаи, когда я мне закидываю в LLM кучу инфы и заставляю всё это переварить. Но лично для меня киллер-фича — это скорость работы. Потому что часто не сразу понятно, что именно надо сделать с информацией, и гораздо удобнее действовать постепенно, шаг за шагом, задавая уточняющие вопросы. А когда каждая итерация длится по полчаса, работать становится очень неудобно.

Я критикую даже не столько высокую цену, сколько общую применимость этой модели. Думаю, даже если бы o3-pro входила в обычную подписку, я бы пользовался ею очень редко.

Кстати, в Pro-подписку также входят безлимитные модели o3 и 4.5. Но недавно лимиты на o3 удвоили даже в базовой подписке, так что мне теперь их точно хватит с запасом (раньше было впритык). А GPT-4.5 — очень специфичная модель, мало кому вообще нужная (мне, к слову, нужна, но платить $200 только за неё жалко).

Вот если бы у них была подписка, которая чуть дороже базовой (пусть даже х2), которая просто даёт безлимит на о3 и 4.5, я бы точно её взял.

Итог: если вы не уверены зачем вам o3-pro, вам точно не стоит тратить деньги на ChatGPT Pro за $200.
Ничего волшебного в ней нет, и нужна она скорее тем самым профессионалам, которые хорошо понимают, что они делают.

А если у вас есть лишние $200, лучше их потратить на подписку Claude Max, вот она точно себя оправдывает 🫶

————

Если вы понимаете лучше меня, зачем нужна o3-pro и как её правильно готовить, делитесь в комментариях.

К слову, о потраченных $200 я не жалею — это не пустая трата, а инвестиция в опыт. Скорее было бы глупо не попробовать, раз такая возможность появилась.

#llm #gpt #o3pro
Please open Telegram to view this post
VIEW IN TELEGRAM
👍371284
Николай Тузов
Что я могу сказать про o3-pro? Честно — я её не понял 😩 Похоже, просто выкинул $200 на ветер Я очень люблю ChatGPT, хотя моим фаворитом остаётся Claude. Особенно сильно я полюбил GPT-o3, причём для самых разных задач: - Она отлично справляется с небольшими…
Кстати, если хотите потестить o3-pro, можете кидать свои промты в комменты, я спрошу у модели и скину вам ссылку на чат

Раз уж заплатил и не пользуюсь чего добру пропадать
👍

🟠Только пишите что-то осмысленное, если вам действительно интересно потестить. Всякую ерунду буду игнорировать или удалять.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8542
Николай Тузов
Кстати, если хотите потестить o3-pro, можете кидать свои промты в комменты, я спрошу у модели и скину вам ссылку на чат Раз уж заплатил и не пользуюсь чего добру пропадать 👍 🟠Только пишите что-то осмысленное, если вам действительно интересно потестить. Всякую…
Как вам такой proposal по обработке ошибок? Отправляем в Go Team? 🙃

Вообще, выглядит красиво, мне нравится. Но, скорее всего, такой пропозал уже был.

👣 Кстати, вроде, в этом вашем Rust оно так и работает?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁45👍26202
Николай Тузов
я заказал себе в подарок ПК с RTX 5090 — в основном, чтобы играть в игры, но и с моделями грех не поразвлекаться, чтобы такой монстр без дела не простаивал.
Решил не дожидаться RTX 5090 и проверил всё это на своём Маке на M4 Pro (не 5090, конечно, но тоже достаточно мощный)

Что интересного я выяснил в процессе:

1. Docker и Podman на macOS даже с моделями работают через виртуализацию (Apple Hypervisor.framework). Это означает примерно 10% потери производительности, особенно заметной при работе на CPU. Причина банальная — накладные расходы виртуальной машины и файловой системы virtio-fs.
Как вы понимаете, в случае работы с тяжелыми моделями, это очень критично, каждый процент на счету.

2. Docker запускает модель и выдаёт OpenAI-совместимый API, и всё (это не открытие, а просто осознание). Интерфейса чата нет в принципе, что вполне ожидаемо.
Конечно, можно подключать сторонние инструменты или написать свой, но это уже лишние хлопоты. В Podman AI Lab интерфейс есть, но минималистичный — скорее playground для тестов, а не полноценный чат.

Тогда я решил всё же попробовать LM Studio, может не так уж она страшна? Что ж, я не пожалел, т.к. она намного лучше:

- Работать с ней даже проще, чем с Docker / Podman, т.к. есть отличная интеграция с Hugging Face (как Docker Hub, но для моделей): у подходящих моделей есть кнопка "Use this model -> LM Studio" — модель можно загрузить и запустить буквально одним кликом.

- Нативная работа на macOS, без виртуализации и лишних слоёв, поэтому потери мощности нет.

- Встроенный, полноценный интерфейс чата(!) с удобной историей диалогов, гибкими настройками моделей и даже возможностью загружать документы для RAG.

Совместимость моделей

Кнопка "Use this model -> LM Studio" появляется для моделей в специальном формате GGUF (например). Если кратко, это бинарный формат, оптимизированный под локальный запуск и поддерживающий разные уровни квантизации (чтобы модели занимали меньше места и загружались быстрее).

То есть, когда ищете модели на Hugging Face, указывайте также ключевое слово GGUF

На мой взгляд, сейчас это лучший инструмент для комфортной локальной работы с LLM, по крайней мере на macOS

#docker #podman #llm #lmstudio #huggingface
🔥59👍96
🧙 GoGetPodcast — поговорим про AI

https://youtube.com/live/X4atyOhaRnM

Эфир будет уже завтра: 21 июня, в 11:00 по Мск
Как обычно, запись выложу в более крутом качестве, но через 1-2 дня. Если не хотите ждать, приходите завтра на стрим.

Давно у нас не было подкастов, а поговорить очень даже есть о чём. А именно, мне давно очень хотелось обсудить тему LLM-моделей с крутыми экспертами.

Состав получился замечательный, беседа обещает быть интересной:

- Глеб Яльчик — основатель Pixel Technologies (GameDev)
- Антон Зиновьев — техлид в Gaijin (GameDev)
- Фёдор Догов — техлид, руководит проектом Инвестиций у нас в Plata 😏

Несмотря на высокие должности, все ребята много пишут на Go 🔨

Выпуск я хочу разбить условно на две части:

1. Практическая

- Какими ИИ-инструментами мы пользуемся
- Для каких задач используем, обсудим реальные кейсы и примеры
- Какие подходы и методы выработали, как работаем с ИИ-агентами, как общаемся с ИИ-чатами и т.п.
- В каких задачах или кейсах ИИ справляется плохо?

У всех разработчиков сейчас выработался свой личный подход, который кажется очевидным, и создаётся ощущение, что остальные делают так же. Но практика показывает, что у людей часто подходы сильно разнятся, и обмениватсья "очевидными" методами оказывается на удивление интересно.

2. Общая

- Заменит ли нас ИИ?
- Куда всё идёт? Что будет через 2 года, 5 лет, 10?
- Станет ли наша жизнь и работа в будущем лучше или хуже?
- Есть ли страхи, опасения?
- Ваше любимое: сделает ли (или уже делает) ИИ нас тупее? 🤡
- Станет ли спрос на программистов меньше или больше?
- Повысится или понизится порог входа (требования могут вырасти, но достичь их может стать проще - с ИИ проще учиться)

————

Сразу скажу: как обычно, не факт, что мы успеем всё это обсудить, и даже не факт, что доберёмся до второй части. Если что, оставим часть вопросов на следующий выпуск

#gogetpodcast
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥57👍20153
👩‍💻 Gemini CLI — аналог Claude Code от Google

https://github.com/google-gemini/gemini-cli

Что ж, это было ожидаемо. Когда Anthropic показали всем Claude Code, стало понятно, что это самый удачный формат ИИ-агента. OpenAI быстро ответили своим Codex CLI. Уже тогда стало понятно, что аналог от Гугла долго ждать не придётся, и вот дождались.

Установить можно так:

npm install -g @google/gemini-cli


Главные преимущества:

- У модели Gemini 2.5 Pro рекордный контекст в 1 миллион токенов (это примерно PDF на 1500 страниц) — такого нет ни у кого из конкурентов.
Для сравнения, у Claude Code и Codex CLI контекст ~200 тыс токенов

- Доступно бесплатно через Google-аккаунт с очень щедрыми лимитами: до 60 запросов в минуту и до 1000 запросов в день.
Если точнее, то при логине вы автоматически получаете бесплатную лицензию Gemini Code Assist for individuals — именно она даёт доступ к тем самым 1000 запросам.

Плохая новость: подписочной модели, как для Gemini-чата, у них нет, и непонятно будет ли. То есть, если потратил бесплатные лимиты, придётся платить за токены. Хотя, надо очень постараться, чтобы потратить бесплатный лимит.

-
Есть встроенный Google-поиск: не нужно переключаться в браузер для фактчекинга — агент сам всё нагуглит и проверит актуальность

- Встроенная генерация медиа: Через MCP подключены Imagen, Veo и Lyria. Нужна картинка для приложения? Агент сам сгенерит. В других CLI такого нет.

Как и у Claude Code, тут уже есть поддержка MCP, что очень удобно.

Исходники доступны под Apache 2.0 лицензией, так что можно использовать как угодно. Но вряд ли вам они будут интересны, т.к. написано оно на TypeScript.

————

Если кто-то уже успел попробовать, делитесь впечатлениями в комментариях.
Я пока не успел, но завтра буду пробовать его на рабочих проектах.

#llm #gemini #cli
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥66186😁2
Forwarded from БлоGнот
Если вы, как и я, уже провели некоторое время в попытках заставить Gemini CLI работать с платным ключом API, то вот вам решение,
- В Google Cloud создаете Project (или используете существующий)
- Включаете в нем Gemini API.
- генерируете ключ Gemini API (это можно сделать в AI Studio)
- указываете в переменных окружения (либо в .env либо export) GEMINI_API_KEY и GOOGLE_CLOUD_PROJECT.
- обновляете gemini CLI (сейчас свежая пока 0.1.4).
- запускаете gemini CLI и логинитесь через Google account.
- работаете.

Пока у меня смешанные ощущения. Он работает быстро, но как-то хуже Claude Code. Попросил сделать code review компонента — он бодро перечислил недостатки, дальше вывел список того, как их чинить и вдруг — "Now I will apply changes to the file". Я, конечно, могу чего-то не знать, как менеджер, но мне всегда казалось, что code review делается не так.

Попросил исправить ошибку во фронтенде — вроде непосредственную ошибку исправляет, но я уже вижу, что это приведет к другой ошибке в интерфейсе.

В общем, пока подожду, когда мне реально понадобится миллион токенов контекста.
👍22😁1076
Николай Тузов
🧙 GoGetPodcast — поговорим про AI https://youtube.com/live/X4atyOhaRnM Эфир будет уже завтра: 21 июня, в 11:00 по Мск Как обычно, запись выложу в более крутом качестве, но через 1-2 дня. Если не хотите ждать, приходите завтра на стрим. Давно у нас не было…
👴 GoGetPodcast — и снова про AI

Продолжаем обсуждать темы прошлого выпуска, но в другом составе. Подробное описание тут.

Эфир будет уже завтра: 5 июля, в 11:00 по Мск
Как обычно, запись выложу в более крутом качестве, но через 1-2 дня. Если не хотите ждать, и хотите задать свои вопросы во время обсуждения, приходите завтра на стрим.

Состав:

- Николай Тузов
- Влад Тен с канала🎙 Влад Тен
- Ильдар Карымов с канала Defer Panic

————

⚠️ Как обычно, выпуск будет в формате "кухонного разговора" — мы не готовим материал заранее, а просто обсуждаем заявленный список тем, делимся своим мнением, не более. Мы не обещаем, что эти темы будут полноценно раскрыты. Такова идея подкаста.

#gogetpodcast
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5718123
Николай Тузов
👴 GoGetPodcast — и снова про AI Продолжаем обсуждать темы прошлого выпуска, но в другом составе. Подробное описание тут. Эфир будет уже завтра: 5 июля, в 11:00 по Мск Как обычно, запись выложу в более крутом качестве, но через 1-2 дня. Если не хотите ждать…
Запись выпуска уже на канале. На аудио-площадках тоже скоро будет.

Приятного аппетита всем, кто завтракает, и хорошего рабочего дня. А казахстанцам хорошо провести этот выходной, и с Днём столицы вас — Астана күні құтты болсын! 🥂🇰🇿
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥4317👍84
Николай Тузов
Запись выпуска уже на канале. На аудио-площадках тоже скоро будет. Приятного аппетита всем, кто завтракает, и хорошего рабочего дня. А казахстанцам хорошо провести этот выходной, и с Днём столицы вас — Астана күні құтты болсын! 🥂🇰🇿
Ссылки на материалы, которые обсуждались в подкасте

Основное:

- How to Build an Agent (AI агент в 400 строк кода от Thorsten Ball
- Его книги Interpreter In Go и Compiler In Go (написание интерпретатора / компилятора на Go, простым языком)
- Статья Illusion of Thinking от Apple
- Ответ на эту статью
- Zed IDE и его агентский режим
- OpenCode - опенсорсный ИИ-агент для любых моделей

Побочные темы

- Терминалы iTerm2, Warp, Ghostty
- Oh My Zsh, starship, fish

Если что-то забыл, пишите, дополню
👍2115🔥61
2025/07/08 19:51:49
Back to Top
HTML Embed Code: