Погрузитесь в этичный хакинг и научитесь видеть системы изнутри – глазами тех, кто их тестирует на прочность.
Старт — 2 июня
Длительность — 8 недель
Формат — онлайн
Итог — реальные знания, экзамен и сертификат
Курс подойдет, если вы:
— разработчик, который хочет делать по-настоящему защищённые приложения
— админ или devops-инженер, настраивающий инфраструктуру «без дыр»
— специалист по ИБ или стремящийся стать профессиональным пентестером —
этот курс для вас.
Вы получите:
— понимание, как ОС и фреймворки работают изнутри;
— реальные кейсы по выявлению уязвимостей;
— опыт практического пентеста под руководством экспертов;
— навыки, которые можно применять сразу.
👉 Записаться на курс
#партнерский_пост
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3🔥3🤮3❤2😎2
Статья по докладу о CPU Limits в Kubernetes объясняет их влияние на производительность контейнеров. Автор разбирает концепцию CPU Requests и Limits, их связь с cgroups v2 и даёт рекомендации по использованию.
Самое главное ниже 👇
CPU Requests задают минимально гарантированное процессорное время для контейнера, а CPU Limits — максимальное.
Limits ограничивают использование процессора в "окне" 100 мс (например, при лимите 0.4 ядра контейнер получит 40 мс из 100 мс). Это реализуется через cgroups v2 в Linux, которые управляют распределением ресурсов.
Проблемы с CPU Limits:
Для приложений, чувствительных к задержкам, throttling критичен: могут не сработать
liveness probes
, пропуститься heartbeat-события
, увеличиться задержка ответа.Даже при низкой загрузке процессора (например, 50%) контейнер может троттлиться из-за многопоточности или ошибок в ядре Linux.
Как работает throttling:
Если задаче нужно 200 мс процессорного времени, но у вас лимит 0.4 (40 мс на 100 мс), то 160 мс придётся ждать новых "окон". Итог: задача займёт 440 мс вместо 200 мс, так как 60 мс в каждом окне — это простой. Throttling (замедление) возникает, даже если у узла есть свободные ресурсы.
Когда использовать CPU Limits:
batch jobs
), где задержки некритичны, или если есть баг в приложении, из-за которого оно потребляет слишком много CPU.CPU Requests
, чтобы гарантировать минимум ресурсов без искусственного замедления.Рекомендации:
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8⚡4🔥4
Уже в эту пятницу 25 апреля мы встретимся на важном событии в мире IT, разработки и безопасности — AppSecFest 2025.
В программе:
Ждем вас на AppSecFest 2025 в Алматы!
#партнерский_пост
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6⚡4
Oracle исправила 378 уязвимостей в MySQL, Java SE, VirtualBox и других продуктах в апрельском обновлении безопасности.
В Алматы началось строительство дата-центра Freedom Cloud с инвестициями 175 млрд тенге от Freedom Holding Corp. Проект усилит цифровую инфраструктуру, создаст рабочие места и будет соответствовать стандартам NVIDIA.
«Парк инновационных технологий» переименован в Almaty Hub (by Astana Hub). Новый гендиректор Ержан Тасмухан займётся развитием стартапов и привлечением инвестиций.
Наш клиент — Parqour (управление парковками), Aidentis (AI-диагностика в стоматологии) и TrustExam.ai (честность онлайн-обучения) прошли в летнюю программу акселератора StartX при Стэнфорде.
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4❤2
В 2024 году Amazon столкнулась с глобальной нехваткой GPU из-за бума ИИ-технологий и дефицита чипов NVIDIA. Это сильно ударило по ретейл-подразделению, где внутренние проекты начали тормозить из-за недостатка вычислительных ресурсов.
Если инфраструктура не справляется с нагрузкой, это напрямую влияет на скорость разработки, доставку продуктов и, в конечном счёте, на прибыль компании.
Компания ввела строгие правила, основанные на следующих принципах:
Результат:
К 2025 году ситуация улучшилась. Дефицит GPU устранён, а их собственный чип Trainium начал удовлетворять потребности ретейл-подразделения к концу года.
Project Greenland показывает, как централизованное управление и приоритизация по бизнес-целям помогают справляться с ограничениями ресурсов. DevOps-команды могут адаптировать этот подход, особенно если работают с ресурсоемкими ИИ.
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3❤2
Rocket Tech и Halyk Bank приглашают топ-менеджеров и продуктовые команды обсудить ключевые тренды в микрофинансовых услугах.
CTO, CPO, CIO, PO, PM, разработчиков и дизайнеров ведущих МФО, банков и финтех-компаний Центральной Азии.
В программе:
• Реальные кейсы
• Инсайты от лидеров индустрии
• Нетворкинг с ключевыми игроками
📅 16 мая
🕑 14:00
📍 Smart Point
Для гостей — кейтеринг: можно перекусить, пообщаться и завести полезные знакомства. Присоединяйтесь к обсуждению!
👉 Регистрируйтесь здесь
#партнерский_пост
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😎3❤2⚡2
Контейнеры — это черный ящик для большинства инженеров. Предлагаем статью, которая позволяет лучше разобраться в том, как именно они устроены и работают.
После пояснения основных концептов на наглядных примерах создадим файловую систему контейнера, имитируя деятельность Docker.
👉 Читайте в блоге
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3😎3
Алматы/Астана, офис
Опыт работы: 2-3 года
Полная занятость
ЗП: 450 000 — 1 000 000 тг.
Задачи:
— Поддерживать production так, чтобы бизнес был спокоен
— Спасать клиентов в случае аварий
— Выстраивать процессы CI/CD
— Переносить приложения в Kubernetes. Запускать и настраивать их
— Конфигурировать СУБД, серверы очередей и прочий софт. Делать более надежными и быстрыми.
— Разрушать стену между разработкой и администрированием
С кем вы будете работать:
— С клиентом, тимлидом и ПМом
— С командой разработки инструментов, сервисов и технологий для упрощения работы (автоматизация наше все)
Требования:
— Отличные знания Linux-систем - ежедневная эксплуатация от 3 лет, опыт в DevOps - от 1 года
— Понимание работы веб-приложений и опыт их эксплуатации - от 3 лет
— Понимание веб-стека (HTTP, TCP/IP), устройства и работы сетей, базовые навыки с iptables
— Понимание принципов СУБД, построения и эксплуатации распределенных систем
— Умение сформулировать алгоритм и писать скрипты
Что мы предлагаем:
— Погружение в передовые cloud-native-технологии и участие в разработке Open Source / AI продуктов.
— Уникальная открытая корпоративная культура: отсутствие строгой субординации, самостоятельность и доверие.
— Постоянное обучение у крутых коллег, которые готовы делиться опытом: у нас есть все необходимое для роста и развития.
— Курсы английского языка, отраслевую сертификацию, компенсацию тренажерного зала и прочие бонусы.
Писать сюда:
👉 aissabekova@core247.io
👉 @issaika
Полное описание вакансии
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
4❤10👍8😎5🤡3🥱1
Если хотите не только обучить LLM, но и приручить ее (а выходные для этого само то 😂), мы поможем подобрать инфраструктуру.
Список полезных ресурсов помжет разобраться в настройке, тестировании и оптимизации больших языковых моделей:
• Карточка модели Qwen2.5-32B-Instruct-AWQ на Hugging Face — содержит описание модели, параметры и инструкции по использованию.
• Документация по квантованию: GGUF, AWQ и GPTQ — полезно для понимания методов оптимизации памяти.
• Статья NVIDIA, как оценить требования к VRAM при выборе GPU для инференса.
• Онлайн-калькулятор VRAM LLM Calc — удобный инструмент для расчёта необходимой памяти в зависимости от параметров модели и квантования.
• Ollama — простой инструмент для локального инференса LLM.
• SGLang — фреймворк для ускорения инференса, с открытым кодом.
• VLLM — высокопроизводительный фреймворк для серверного инференса.
• Документация по настройке VLLM Engine Args — подробное описание параметров для оптимизации работы VLLM.
Универсальные инструменты: Locust, k6, Gatling, Apache JMeter, Яндекс.Танк — подходят для тестирования производительности бэкендов.
• Perf Analyzer — утилита для анализа производительности инференса.
• Gen AI Perf — специализированный инструмент для LLM.
• Режимы Gen AI Perf: Analyze и Sessions — помогают анализировать производительность в различных сценариях.
• VLLM Backend — интеграция VLLM с Triton Inference Server.
• TensorRT LLM Backend — бэкенд для ускорения инференса с использованием TensorRT.
• Triton CLI — упрощает импорт конфигураций и запуск инференса на Triton.
• TensorRT LLM Performance Overview — бенчмарки производительности TensorRT LLM от NVIDIA.
• Статья BentoML — сравнение различных бэкендов для инференса LLM.
Эта подборка охватывает все этапы работы с LLM: от выбора модели до тестирования производительности.
Пользуйтесь и делитесь с коллегами
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4⚡3👍3❤2
29 мая пройдет VK Cloud Nomad Fest — конференция про облачные технологии, работу с данными, построение карьеры в ИТ, развитие личного бренда. Вы узнаете про сервисы для работы с ИТ-инфраструктурой, коммуникациями и финансами.
Вас ждут 15 докладов от технических специалистов, ИТ-директоров и карьерных экспертов. А еще, панельные дискуссии и общение с новыми коллегами из сферы ИТ.
В программе:
В первой части будет активный обмен опытом и практика применения актуальных технологий. Во второй — активный отдых, неформальное общение, консультации от архитекторов и HR, барбекю на открытом огне, живая музыка и DJ-сет.
👉 Зарегистрируйтесь, чтобы узнать подробнее
#партнерский_пост
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6😎2
Этот пост для вас, если хотите интегрировать CodeQL в CI/CD, улучшить безопасность кода без лишних затрат времени и защитить продукт от уязвимостей ещё на этапе разработки.
GitHub интегрировал CodeQL в свою платформу, чтобы автоматически сканировать код на наличие уязвимостей. Это особенно полезно для крупных проектов, где вручную проверять код слишком долго и дорого.
CodeQL поддерживает Java, Python, C++ и другие — и умеет выявлять типичные проблемы вроде SQL-инъекций, XSS-атак и других угроз.
CodeQL создаёт базу данных из кода проекта, а затем применяет к ней запросы, которые ищут подозрительные паттерны. Например, он может найти места, где данные пользователя напрямую попадают в SQL-запрос без проверки. GitHub использует это в фиче Code Scanning, которая доступна в репозиториях и помогает сразу видеть проблемы.
Также CodeQL позволяет писать кастомные запросы, чтобы искать специфические уязвимости, которые важны для конкретного проекта.
👉 Узнайте больше, как GitHub применяет это на своей платформе
@DevOpsKaz
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4🎉3👍2