🤔Южная Корея запретила загрузку китайского ИИ-приложения DeepSeek
Власти Южной Кореи временно приостановили скачивание искусственного интеллекта DeepSeek, разработанного китайской компанией. Приложение исчезло из магазинов Apple и Google в стране, но остаётся доступным через браузер. Причина — проблемы с обработкой персональных данных.
🤔 Что случилось?
DeepSeek стал одним из самых популярных ИИ-чат-ботов в мире, обогнав конкурентов. Его разработчики утверждают, что смогли создать мощную систему при минимальных затратах на дорогостоящие чипы, что обрушило акции американских технокомпаний.
🤔 Почему это важно
✅ Южная Корея уже запретила использование DeepSeek на госустройствах.
✅ Австралия и Тайвань также ввели ограничения.
✅ США обеспокоены возможностью обхода санкций на поставку чипов Китаю.
🤔 Китайская реакция
Официальный Пекин призывает не политизировать экономические и технологические вопросы.
🔎Источник
Власти Южной Кореи временно приостановили скачивание искусственного интеллекта DeepSeek, разработанного китайской компанией. Приложение исчезло из магазинов Apple и Google в стране, но остаётся доступным через браузер. Причина — проблемы с обработкой персональных данных.
🤔 Что случилось?
DeepSeek стал одним из самых популярных ИИ-чат-ботов в мире, обогнав конкурентов. Его разработчики утверждают, что смогли создать мощную систему при минимальных затратах на дорогостоящие чипы, что обрушило акции американских технокомпаний.
🤔 Почему это важно
✅ Южная Корея уже запретила использование DeepSeek на госустройствах.
✅ Австралия и Тайвань также ввели ограничения.
✅ США обеспокоены возможностью обхода санкций на поставку чипов Китаю.
🤔 Китайская реакция
Официальный Пекин призывает не политизировать экономические и технологические вопросы.
🔎Источник
Что бы вы предпочли для минимизации влияния градиентного затухания в глубоких нейросетях?
Anonymous Poll
78%
Использование функции активации ReLU или её модификаций
15%
Применение случайного инициализации весов с нуля
0%
Увеличение количества слоев в нейросети
7%
Использование метода градиентного спуска без momentum
😎Инструментарий ML 2025 года: лучшие библиотеки и инструменты для практиков
LangChain - предлагает множество инструментов, которые упрощают процесс разработки приложений на основе LLM, используя различные компоненты, такие как цепочки (chains), шаблоны запросов (prompt templates) и многое другое. Этот фреймворк также поддерживает интеграцию с различными поставщиками LLM, такими как OpenAI, Gemini и Hugging Face.
JAX - это библиотека Python, которая предоставляет численные вычисления, подобные NumPy, но с мощными возможностями для исследований и реализации в области машинного обучения. JAX разработан командой Google для обеспечения высокопроизводительных вычислений и предоставления таких функций, как автоматическое дифференцирование, векторизация и компиляция "по требованию" (JIT). Эти функции предназначены для эффективного выполнения интенсивных вычислений.
Fastai - предоставляет быструю реализацию техник глубокого обучения и вспомогательные функции. Библиотека разработана для упрощения обучения нейронных сетей с использованием высокоуровневых компонентов, которые позволяют практикам достигать отличных результатов с минимальным количеством кода. Библиотека Fastai построена на основе библиотеки PyTorch, поэтому большая часть мощностей и гибкости PyTorch доступна внутри Fastai. Однако Fastai предлагает гораздо более простой способ для пользователей создавать модели, поскольку библиотека абстрагирует множество сложных участков кода в простой API. Библиотека поддерживает множество задач, таких как компьютерное зрение, работа с табличными данными, обработка естественного языка и другие.
InterpretML - это библиотека Python, разработанная Microsoft, которая позволяет пользователям обучать интерпретируемые модели машинного обучения, такие как explainable boosting machine (EBM), а также объяснять черные ящики моделей с помощью таких техник, как SHAP и LIME. Кроме того, она предлагает интерактивную панель визуализации для глубокого исследования объяснений моделей.
TokenSHAP - использует технику SHAP для интерпретации LLM с помощью метода оценки значения Шепли через Монте-Карло. Библиотека оценивает значения Шепли для отдельных токенов и объясняет, как каждый токен влияет на решение модели.
LangChain - предлагает множество инструментов, которые упрощают процесс разработки приложений на основе LLM, используя различные компоненты, такие как цепочки (chains), шаблоны запросов (prompt templates) и многое другое. Этот фреймворк также поддерживает интеграцию с различными поставщиками LLM, такими как OpenAI, Gemini и Hugging Face.
JAX - это библиотека Python, которая предоставляет численные вычисления, подобные NumPy, но с мощными возможностями для исследований и реализации в области машинного обучения. JAX разработан командой Google для обеспечения высокопроизводительных вычислений и предоставления таких функций, как автоматическое дифференцирование, векторизация и компиляция "по требованию" (JIT). Эти функции предназначены для эффективного выполнения интенсивных вычислений.
Fastai - предоставляет быструю реализацию техник глубокого обучения и вспомогательные функции. Библиотека разработана для упрощения обучения нейронных сетей с использованием высокоуровневых компонентов, которые позволяют практикам достигать отличных результатов с минимальным количеством кода. Библиотека Fastai построена на основе библиотеки PyTorch, поэтому большая часть мощностей и гибкости PyTorch доступна внутри Fastai. Однако Fastai предлагает гораздо более простой способ для пользователей создавать модели, поскольку библиотека абстрагирует множество сложных участков кода в простой API. Библиотека поддерживает множество задач, таких как компьютерное зрение, работа с табличными данными, обработка естественного языка и другие.
InterpretML - это библиотека Python, разработанная Microsoft, которая позволяет пользователям обучать интерпретируемые модели машинного обучения, такие как explainable boosting machine (EBM), а также объяснять черные ящики моделей с помощью таких техник, как SHAP и LIME. Кроме того, она предлагает интерактивную панель визуализации для глубокого исследования объяснений моделей.
TokenSHAP - использует технику SHAP для интерпретации LLM с помощью метода оценки значения Шепли через Монте-Карло. Библиотека оценивает значения Шепли для отдельных токенов и объясняет, как каждый токен влияет на решение модели.
Langchain
An all-in-one developer platform for every step of the llm-powered application lifecycle, whether you’re building with LangChain or not.
👍1
🐾 😱Ученые обучают ИИ понимать эмоции животных
Исследователи разрабатывают ИИ-системы, способные распознавать эмоции животных, чтобы улучшить их благополучие.
В Великобритании создана Intellipig — система, анализирующая фотографии свиней и предупреждающая фермеров о признаках боли, болезни и стресса. В Университете Хайфы работают над ИИ, который помогает выявлять дискомфорт у собак, что может облегчить взаимодействие владельцев с питомцами.
В Университете Сан-Паулу разработали систему, обученную определять боль у лошадей. Анализируя фотографии до и после операций, а также после приема обезболивающих, ИИ с точностью 88% распознал признаки дискомфорта.
Эти исследования открывают новые возможности для мониторинга и ухода за животными, делая диагностику более точной и доступной.
🔎Подробнее можно узнать тут
Исследователи разрабатывают ИИ-системы, способные распознавать эмоции животных, чтобы улучшить их благополучие.
В Великобритании создана Intellipig — система, анализирующая фотографии свиней и предупреждающая фермеров о признаках боли, болезни и стресса. В Университете Хайфы работают над ИИ, который помогает выявлять дискомфорт у собак, что может облегчить взаимодействие владельцев с питомцами.
В Университете Сан-Паулу разработали систему, обученную определять боль у лошадей. Анализируя фотографии до и после операций, а также после приема обезболивающих, ИИ с точностью 88% распознал признаки дискомфорта.
Эти исследования открывают новые возможности для мониторинга и ухода за животными, делая диагностику более точной и доступной.
🔎Подробнее можно узнать тут
У вас есть ограниченный вычислительный ресурс, но необходимо обучить глубокую нейросеть. Какие стратегии вы бы предпочли для хорошего результата?
Anonymous Poll
69%
Использование предварительно обученных моделей и transfer learning
19%
Снижение разрядности данных и вычислений (например, mixed precision training)
0%
Мини-батчи и градиентное накопление для экономии памяти
13%
Адаптивные оптимизаторы (например, AdamW, Ranger) для ускорения сходимости
📚 Глубокое обучение с нуля: мощный учебный курс от Fast.ai
Если вы хотите научиться создавать и обучать нейросети, но не знаете, с чего начать, Fast.ai предлагает один из лучших бесплатных курсов, который идеально подойдет как новичкам, так и более опытным разработчикам.
📌 Полный сборник учебных материалов – доступен здесь
Этот курс разработан для практиков и охватывает все ключевые аспекты нейросетей – от базовых принципов до сложных архитектур. Он сочетает в себе теорию и практику, помогая понять, как работает глубокое обучение и как его можно применять на реальных задачах.
🔥 Что вас ждет в курсе?
✅ Облачное обучение – настройка среды без необходимости мощного железа.
✅ 20 детально проработанных глав – от основ нейросетей до сложных моделей.
✅ Практические задания – обучение на реальных данных, от обработки изображений до анализа текста.
✅ Простые объяснения – материал подается доступным языком, без перегруженности математикой.
✅ Поддержка сообщества – активные форумы и обсуждения, где можно задать вопросы.
📚 Какие темы разбираются?
🔹 Архитектура нейросетей – от простых до многослойных моделей.
🔹 Обучение моделей – оптимизация, градиентный спуск, выбор гиперпараметров.
🔹 Компьютерное зрение – обработка изображений, CNN, GAN.
🔹 NLP и работа с текстами – LSTMs, трансформеры, GPT.
🔹 Этика и интерпретируемость ИИ – как делать нейросети прозрачными и безопасными.
🚀 Кому подойдет этот курс?
✅ Новичкам – если хотите войти в мир машинного обучения с понятных основ.
✅ Разработчикам – если хотите интегрировать нейросети в свои проекты.
✅ Датасаентистам – если хотите глубже разобраться в архитектурах ИИ.
Этот курс – один из лучших ресурсов по deep learning, который сочетает теорию, практику и удобный формат обучения.
Если вы хотите научиться создавать и обучать нейросети, но не знаете, с чего начать, Fast.ai предлагает один из лучших бесплатных курсов, который идеально подойдет как новичкам, так и более опытным разработчикам.
📌 Полный сборник учебных материалов – доступен здесь
Этот курс разработан для практиков и охватывает все ключевые аспекты нейросетей – от базовых принципов до сложных архитектур. Он сочетает в себе теорию и практику, помогая понять, как работает глубокое обучение и как его можно применять на реальных задачах.
🔥 Что вас ждет в курсе?
✅ Облачное обучение – настройка среды без необходимости мощного железа.
✅ 20 детально проработанных глав – от основ нейросетей до сложных моделей.
✅ Практические задания – обучение на реальных данных, от обработки изображений до анализа текста.
✅ Простые объяснения – материал подается доступным языком, без перегруженности математикой.
✅ Поддержка сообщества – активные форумы и обсуждения, где можно задать вопросы.
📚 Какие темы разбираются?
🔹 Архитектура нейросетей – от простых до многослойных моделей.
🔹 Обучение моделей – оптимизация, градиентный спуск, выбор гиперпараметров.
🔹 Компьютерное зрение – обработка изображений, CNN, GAN.
🔹 NLP и работа с текстами – LSTMs, трансформеры, GPT.
🔹 Этика и интерпретируемость ИИ – как делать нейросети прозрачными и безопасными.
🚀 Кому подойдет этот курс?
✅ Новичкам – если хотите войти в мир машинного обучения с понятных основ.
✅ Разработчикам – если хотите интегрировать нейросети в свои проекты.
✅ Датасаентистам – если хотите глубже разобраться в архитектурах ИИ.
Этот курс – один из лучших ресурсов по deep learning, который сочетает теорию, практику и удобный формат обучения.
Practical Deep Learning for Coders
Practical Deep Learning for Coders - The book
Learn Deep Learning with fastai and PyTorch, 2022
❤1
🚀 Полный стартер-пак для разработчиков LLM: 120 бесплатных библиотек в одном месте
Если вы разрабатываете LLM-модели, хотите файнтюнить их под свои задачи, тестировать производительность или строить ИИ-агентов, эта подборка станет настоящим сокровищем. В LLM Engineer Toolkit собрано 120 бесплатных библиотек, охватывающих все аспекты работы с языковыми моделями, от предобработки данных до масштабируемого развертывания.
🔥 Что внутри?
✅ Полная классификация инструментов – библиотеки распределены по категориям: обучение, файнтюнинг, оценка, генерация, оптимизация, интерпретируемость, API-интеграции.
✅ Подробные описания – каждая библиотека сопровождается пояснением и ссылкой на GitHub с полными гайдами.
✅ Готовые примеры и туториалы – многие инструменты включают Jupyter-ноутбуки и пошаговые инструкции по настройке и запуску.
✅ Подходит как для новичков, так и для продвинутых специалистов – если вы только осваиваете работу с LLM, вам помогут простые в использовании библиотеки, а если уже работаете с крупными моделями – найдутся инструменты для глубокой оптимизации и развертывания в проде.
✅ Инструменты для любых задач – от легких Transformer-библиотек, работающих на CPU, до мощных GPU-ускоренных решений для промышленного использования.
⚙️ Какие категории библиотек представлены?
🔹 Обучение и файнтюнинг – инструменты для тренировки моделей с нуля или адаптации под новые задачи.
🔹 Предобработка данных – библиотеки для очистки текстов, аугментации данных, работы с токенизацией и векторными представлениями.
🔹 Оценка качества LLM – метрики, бенчмарки и фреймворки для тестирования производительности моделей.
🔹 Оптимизация скорости и памяти – библиотеки для квантования, sparsity-техник и вычислительных графов, ускоряющие работу LLM.
🔹 API и интеграции – удобные SDK для быстрого подключения LLM к приложениям и сервисам.
🔹 Развертывание и масштабирование – инструменты для запуска LLM в облаке, на локальном сервере или edge-устройствах.
🔹 Интерпретируемость и объяснимость – фреймворки, помогающие понять, почему модель делает те или иные предсказания.
🔹 Генерация текста и креативные задачи – библиотеки для работы с генерацией контента, чат-ботами, кодогенерацией и обработкой естественного языка.
📌Обратиться к данному сборнику можно по этой ссылке
Если вы разрабатываете LLM-модели, хотите файнтюнить их под свои задачи, тестировать производительность или строить ИИ-агентов, эта подборка станет настоящим сокровищем. В LLM Engineer Toolkit собрано 120 бесплатных библиотек, охватывающих все аспекты работы с языковыми моделями, от предобработки данных до масштабируемого развертывания.
🔥 Что внутри?
✅ Полная классификация инструментов – библиотеки распределены по категориям: обучение, файнтюнинг, оценка, генерация, оптимизация, интерпретируемость, API-интеграции.
✅ Подробные описания – каждая библиотека сопровождается пояснением и ссылкой на GitHub с полными гайдами.
✅ Готовые примеры и туториалы – многие инструменты включают Jupyter-ноутбуки и пошаговые инструкции по настройке и запуску.
✅ Подходит как для новичков, так и для продвинутых специалистов – если вы только осваиваете работу с LLM, вам помогут простые в использовании библиотеки, а если уже работаете с крупными моделями – найдутся инструменты для глубокой оптимизации и развертывания в проде.
✅ Инструменты для любых задач – от легких Transformer-библиотек, работающих на CPU, до мощных GPU-ускоренных решений для промышленного использования.
⚙️ Какие категории библиотек представлены?
🔹 Обучение и файнтюнинг – инструменты для тренировки моделей с нуля или адаптации под новые задачи.
🔹 Предобработка данных – библиотеки для очистки текстов, аугментации данных, работы с токенизацией и векторными представлениями.
🔹 Оценка качества LLM – метрики, бенчмарки и фреймворки для тестирования производительности моделей.
🔹 Оптимизация скорости и памяти – библиотеки для квантования, sparsity-техник и вычислительных графов, ускоряющие работу LLM.
🔹 API и интеграции – удобные SDK для быстрого подключения LLM к приложениям и сервисам.
🔹 Развертывание и масштабирование – инструменты для запуска LLM в облаке, на локальном сервере или edge-устройствах.
🔹 Интерпретируемость и объяснимость – фреймворки, помогающие понять, почему модель делает те или иные предсказания.
🔹 Генерация текста и креативные задачи – библиотеки для работы с генерацией контента, чат-ботами, кодогенерацией и обработкой естественного языка.
📌Обратиться к данному сборнику можно по этой ссылке
GitHub
GitHub - KalyanKS-NLP/llm-engineer-toolkit: A curated list of 120+ LLM libraries category wise.
A curated list of 120+ LLM libraries category wise. - GitHub - KalyanKS-NLP/llm-engineer-toolkit: A curated list of 120+ LLM libraries category wise.
💡 Лучшие AI-инструменты для глубоких исследований в 2025 году
Искусственный интеллект меняет подход к научным исследованиям, аналитике и обработке информации. В 2025 году на рынке появилось множество глубоких исследовательских AI-инструментов, которые помогают анализировать данные, генерировать отчёты и предоставлять доказательные ответы на сложные вопросы.
😎Лидеры среди AI-исследовательских инструментов
🔹 Perplexity AI Deep Research — мощный инструмент с быстрым поиском, итеративным анализом и удобной системой цитирования. Доступен бесплатно, но подписка снимает ограничения по количеству запросов.
🔹 OpenAI Deep Research — предлагает глубокий аналитический разбор, но требует подписки $200 в месяц. Используется преимущественно в корпоративных исследованиях.
🔹 Google Deep Research — встроен в Gemini Advanced ($20/месяц), хорошо интегрируется с другими сервисами Google и предлагает структурированные и контекстные ответы.
🔹 Consensus — AI-поисковик, работающий на основе научного консенсуса. Используется в экономике, медицине и социальных науках.
🔹 Elicit — ассистент для научных исследований, помогает генерировать идеи и анализировать литературу.
🔹 Scite.ai — оценивает научные статьи, показывая количество подтверждений и опровержений гипотез.
🔹 Research Rabbit — инструмент персонализированного поиска академической литературы с рекомендациями.
🔹 ChatPDF — AI-анализатор PDF-документов, который может отвечать на вопросы и создавать краткие выжимки.
🤔Как выбрать лучший инструмент?
Выбор зависит от целей:
✅ Для быстрого анализа — Perplexity AI.
✅ Для корпоративных исследований — OpenAI Deep Research.
✅ Для структурированной информации — Google Deep Research.
✅ Для научных данных — Consensus, Scite.ai и Elicit.
✅ Для работы с PDF — ChatPDF.
Искусственный интеллект меняет подход к научным исследованиям, аналитике и обработке информации. В 2025 году на рынке появилось множество глубоких исследовательских AI-инструментов, которые помогают анализировать данные, генерировать отчёты и предоставлять доказательные ответы на сложные вопросы.
😎Лидеры среди AI-исследовательских инструментов
🔹 Perplexity AI Deep Research — мощный инструмент с быстрым поиском, итеративным анализом и удобной системой цитирования. Доступен бесплатно, но подписка снимает ограничения по количеству запросов.
🔹 OpenAI Deep Research — предлагает глубокий аналитический разбор, но требует подписки $200 в месяц. Используется преимущественно в корпоративных исследованиях.
🔹 Google Deep Research — встроен в Gemini Advanced ($20/месяц), хорошо интегрируется с другими сервисами Google и предлагает структурированные и контекстные ответы.
🔹 Consensus — AI-поисковик, работающий на основе научного консенсуса. Используется в экономике, медицине и социальных науках.
🔹 Elicit — ассистент для научных исследований, помогает генерировать идеи и анализировать литературу.
🔹 Scite.ai — оценивает научные статьи, показывая количество подтверждений и опровержений гипотез.
🔹 Research Rabbit — инструмент персонализированного поиска академической литературы с рекомендациями.
🔹 ChatPDF — AI-анализатор PDF-документов, который может отвечать на вопросы и создавать краткие выжимки.
🤔Как выбрать лучший инструмент?
Выбор зависит от целей:
✅ Для быстрого анализа — Perplexity AI.
✅ Для корпоративных исследований — OpenAI Deep Research.
✅ Для структурированной информации — Google Deep Research.
✅ Для научных данных — Consensus, Scite.ai и Elicit.
✅ Для работы с PDF — ChatPDF.
www.perplexity.ai
Introducing Perplexity Deep Research
Deep Research accelerates question answering by completing in 2-4 minutes what would take a human expert many hours.
😱💡 Учёные обнаружили сходство между работой мозга и нейросетями в обработке языка
Совместное исследование Google Research, Принстонского университета, NYU и Еврейского университета в Иерусалиме выявило параллели между естественной обработкой речи человеческим мозгом и механизмами работы больших языковых моделей.
Используя внутричерепные электроды, исследователи записывали нейронную активность во время спонтанных диалогов и сравнивали её с внутренними представлениями Whisper, модели преобразования речи в текст. Оказалось, что эмбеддинги Whisper отражают работу слуховых и семантических зон мозга: акустическая информация активирует верхнюю височную извилину (STG), а семантические связи формируются в зоне Брока (IFG).
Эксперименты подтвердили, что мозг предсказывает следующее слово в речи, а ошибки вызывают "нейронное удивление" – механизм, напоминающий обучение с подкреплением в машинном обучении. Однако ключевое различие остаётся: мозг анализирует речь последовательно, а трансформеры — параллельно.
Несмотря на схожие принципы работы, биологическая и цифровая обработка речи сильно различаются. LLM не обладают пониманием контекста, эмоций или социальной динамики, однако их эмбеддинги могут помочь глубже понять принципы работы человеческого мышления.
Учёные надеются, что эти открытия помогут создать ИИ, обучающийся как человек – медленно, постепенно, через опыт. Пока же Whisper неожиданно стал "зеркалом" механизмов работы мозга, открывая новые горизонты для исследований в области нейронауки и искусственного интеллекта.
Совместное исследование Google Research, Принстонского университета, NYU и Еврейского университета в Иерусалиме выявило параллели между естественной обработкой речи человеческим мозгом и механизмами работы больших языковых моделей.
Используя внутричерепные электроды, исследователи записывали нейронную активность во время спонтанных диалогов и сравнивали её с внутренними представлениями Whisper, модели преобразования речи в текст. Оказалось, что эмбеддинги Whisper отражают работу слуховых и семантических зон мозга: акустическая информация активирует верхнюю височную извилину (STG), а семантические связи формируются в зоне Брока (IFG).
Эксперименты подтвердили, что мозг предсказывает следующее слово в речи, а ошибки вызывают "нейронное удивление" – механизм, напоминающий обучение с подкреплением в машинном обучении. Однако ключевое различие остаётся: мозг анализирует речь последовательно, а трансформеры — параллельно.
Несмотря на схожие принципы работы, биологическая и цифровая обработка речи сильно различаются. LLM не обладают пониманием контекста, эмоций или социальной динамики, однако их эмбеддинги могут помочь глубже понять принципы работы человеческого мышления.
Учёные надеются, что эти открытия помогут создать ИИ, обучающийся как человек – медленно, постепенно, через опыт. Пока же Whisper неожиданно стал "зеркалом" механизмов работы мозга, открывая новые горизонты для исследований в области нейронауки и искусственного интеллекта.
research.google
Deciphering language processing in the human brain through LLM representations
Какой метод вы бы предпочли для разметки неразмеченных данных (semi-supervised learning)?
Anonymous Poll
20%
Self-training с псевдоразметкой
30%
Использование contrastive learning (SimCLR, MoCo)
40%
Active learning с выбором информативных примеров
10%
Обучение с использованием consistency regularization
🚀 NVIDIA G-Assist: Новый AI-помощник для геймеров и создателей контента
NVIDIA представила Project G-Assist — интеллектуального AI-ассистента, который помогает настраивать ПК, оптимизировать игры и управлять системой с помощью голосовых и текстовых команд. Теперь он доступен через NVIDIA App для видеокарт GeForce RTX 30/40/50.
🔥 Что умеет G-Assist?
✅ Оптимизация графики и системы
Автоматически подбирает лучшие настройки для игр и работы, помогает разгонять GPU, устранять узкие места в системе.
✅ Мониторинг производительности
Отображает FPS, загрузку GPU, температуру, задержку и другие метрики. Можно экспортировать данные для анализа.
✅ Управление периферией
Настраивает подсветку и другие параметры устройств Logitech G, Corsair, MSI, Nanoleaf.
✅ Помощь в настройке и диагностике ПК
Отвечает на вопросы о характеристиках компьютера, программном обеспечении NVIDIA и дает рекомендации по улучшению работы системы.
✅ Работает локально без интернета
Использует компактную AI-модель Llama-based SLM (8B параметров), которая запускается прямо на GeForce RTX GPU. Это значит:
1️⃣Нет задержек на отправку запросов в облако
2️⃣Бесплатное использование без подписок
3️⃣Работа в оффлайн-режиме
⚙️ Расширяемые функции: плагины и интеграции
NVIDIA открывает возможности для кастомизации G-Assist с помощью плагинов. Уже доступны:
🎵 Spotify Plugin – голосовое управление музыкой и громкостью
🌍 Google Gemini Plugin – подключение к облачному AI для сложных запросов
🎮 Twitch Plugin – отслеживание активности стримеров, количество зрителей и статус трансляции
Плагины можно создавать самостоятельно! NVIDIA опубликовала GitHub-репозиторий, где можно найти примеры и инструкции для разработчиков.
💻Ссылка на полную статью
NVIDIA представила Project G-Assist — интеллектуального AI-ассистента, который помогает настраивать ПК, оптимизировать игры и управлять системой с помощью голосовых и текстовых команд. Теперь он доступен через NVIDIA App для видеокарт GeForce RTX 30/40/50.
🔥 Что умеет G-Assist?
✅ Оптимизация графики и системы
Автоматически подбирает лучшие настройки для игр и работы, помогает разгонять GPU, устранять узкие места в системе.
✅ Мониторинг производительности
Отображает FPS, загрузку GPU, температуру, задержку и другие метрики. Можно экспортировать данные для анализа.
✅ Управление периферией
Настраивает подсветку и другие параметры устройств Logitech G, Corsair, MSI, Nanoleaf.
✅ Помощь в настройке и диагностике ПК
Отвечает на вопросы о характеристиках компьютера, программном обеспечении NVIDIA и дает рекомендации по улучшению работы системы.
✅ Работает локально без интернета
Использует компактную AI-модель Llama-based SLM (8B параметров), которая запускается прямо на GeForce RTX GPU. Это значит:
1️⃣Нет задержек на отправку запросов в облако
2️⃣Бесплатное использование без подписок
3️⃣Работа в оффлайн-режиме
⚙️ Расширяемые функции: плагины и интеграции
NVIDIA открывает возможности для кастомизации G-Assist с помощью плагинов. Уже доступны:
🎵 Spotify Plugin – голосовое управление музыкой и громкостью
🌍 Google Gemini Plugin – подключение к облачному AI для сложных запросов
🎮 Twitch Plugin – отслеживание активности стримеров, количество зрителей и статус трансляции
Плагины можно создавать самостоятельно! NVIDIA опубликовала GitHub-репозиторий, где можно найти примеры и инструкции для разработчиков.
💻Ссылка на полную статью
GitHub
GitHub - NVIDIA/G-Assist: Help shape the future of Project G-Assist
Help shape the future of Project G-Assist. Contribute to NVIDIA/G-Assist development by creating an account on GitHub.
Что вы бы предпочли использовать при обучении LLM или использовании её в inference?
Anonymous Poll
0%
Использование токенизации (например, Byte-Pair Encoding или SentencePiece)
78%
Применение FP16 или quantization для ускорения inference
11%
Использование positional encoding в трансформерах
11%
Параллельная генерация через beam search, sampling или top-k
🎮 WHAMM от Microsoft: искусственный интеллект, в который можно играть
Microsoft представила WHAMM (World and Human Action MaskGIT Model) — революционную модель генерации игровых миров, которая позволяет играть прямо внутри нейросети. Это не просто новая нейросетевая архитектура — это демонстрация будущего, в котором границы между реальной игрой и её симуляцией в модели стираются.
🤔 Что делает WHAMM особенной?
🧠 Новая архитектура:
Переход от автогенерации токенов к архитектуре MaskGIT, которая позволяет генерировать всё изображение за несколько проходов через трансформер. Это не просто ускоряет процесс — это делает возможным мгновенную обратную связь на действия пользователя.
🎯 Высокое качество изображения:
Разрешение увеличено с 300×180 до 640×360 пикселей, при этом удалось сохранить скорость за счёт изменения размера патчей в ViT.
🎮 Играбельная модель:
WHAMM была обучена на игре Quake II, где пользователь может:
✅двигаться по локации,
✅прыгать, стрелять, взрывать бочки,
✅исследовать секреты уровня,
📉 Минимум данных, максимум результата
Для WHAMM использовалась всего одна неделя игровых данных, собранных профессиональными тестировщиками. Это поразительный контраст с WHAM-1.6B, обученной на 7 годах геймплея
⚠️ Ограничения модели:
✅Взаимодействие с врагами не всегда корректно (враги могут быть размыты, поведение — нестабильно).
✅Ограниченный контекст: модель «помнит» около 0,9 сек геймплея. Это порождает интересные «баги», вроде исчезающих врагов при смене направления взгляда.
✅Недостаточное понимание чисел: например, счёт здоровья может отображаться некорректно.
✅Ограничение масштаба: модель обучена только на одной части одного уровня.
Microsoft представила WHAMM (World and Human Action MaskGIT Model) — революционную модель генерации игровых миров, которая позволяет играть прямо внутри нейросети. Это не просто новая нейросетевая архитектура — это демонстрация будущего, в котором границы между реальной игрой и её симуляцией в модели стираются.
🤔 Что делает WHAMM особенной?
🧠 Новая архитектура:
Переход от автогенерации токенов к архитектуре MaskGIT, которая позволяет генерировать всё изображение за несколько проходов через трансформер. Это не просто ускоряет процесс — это делает возможным мгновенную обратную связь на действия пользователя.
🎯 Высокое качество изображения:
Разрешение увеличено с 300×180 до 640×360 пикселей, при этом удалось сохранить скорость за счёт изменения размера патчей в ViT.
🎮 Играбельная модель:
WHAMM была обучена на игре Quake II, где пользователь может:
✅двигаться по локации,
✅прыгать, стрелять, взрывать бочки,
✅исследовать секреты уровня,
📉 Минимум данных, максимум результата
Для WHAMM использовалась всего одна неделя игровых данных, собранных профессиональными тестировщиками. Это поразительный контраст с WHAM-1.6B, обученной на 7 годах геймплея
⚠️ Ограничения модели:
✅Взаимодействие с врагами не всегда корректно (враги могут быть размыты, поведение — нестабильно).
✅Ограниченный контекст: модель «помнит» около 0,9 сек геймплея. Это порождает интересные «баги», вроде исчезающих врагов при смене направления взгляда.
✅Недостаточное понимание чисел: например, счёт здоровья может отображаться некорректно.
✅Ограничение масштаба: модель обучена только на одной части одного уровня.
Microsoft Research
WHAMM! Real-time world modelling of interactive environments. - Microsoft Research
Today we are making available an interactive real-time gameplay experience in Copilot Labs, powered by our Muse family of world models. This blog post provides a deeper look at the research underpinning this experience, focusing on the innovations since we…
🔬 Prompt-in-context-learning: крупнейшая база знаний по работе с LLM от EgoAlpha Lab
📚 Prompt-in-context-learning — это масштабный open-source проект от исследовательской команды EgoAlpha Lab, посвящённый эффективной работе с языковыми моделями. Его цель — собрать воедино лучшие методики prompt engineering и in-context learning, превратив разрозненные подходы в структурированную систему.
🔍 Что вы найдёте в проекте:
✅Теоретическую базу по prompt-инжинирингу и контекстному обучению;
✅Систему шаблонов и стратегий: классификация промтов по целям, типам задач и уровням сложности;
✅Анализ и сравнение методов: примеры, где каждая техника работает лучше всего
✅Практические кейсы: генерация SQL, Python, интерпретация графиков, чат-боты, рефакторинг;
✅Инструкции и best practices по настройке среды, форматированию входных данных и управлению контекстом
✅Методы оценки и повышения точности ответов моделей
✅Ежедневные обновления с новыми статьями, исследованиями и примерами из реальных проектов.
🧠 Ключевые особенности:
✅Ориентация на in-context learning — методы обучения LLM без fine-tuning
✅Уделяется внимание устойчивости промтов к ошибкам и jailbreak-атакам
✅Учёт контекста, примеров, ролевых инструкций, цепочек рассуждений (chain-of-thought)
✅Подходит как для разработчиков и аналитиков, так и для преподавателей и исследователей
💻 GitHub
📚 Prompt-in-context-learning — это масштабный open-source проект от исследовательской команды EgoAlpha Lab, посвящённый эффективной работе с языковыми моделями. Его цель — собрать воедино лучшие методики prompt engineering и in-context learning, превратив разрозненные подходы в структурированную систему.
🔍 Что вы найдёте в проекте:
✅Теоретическую базу по prompt-инжинирингу и контекстному обучению;
✅Систему шаблонов и стратегий: классификация промтов по целям, типам задач и уровням сложности;
✅Анализ и сравнение методов: примеры, где каждая техника работает лучше всего
✅Практические кейсы: генерация SQL, Python, интерпретация графиков, чат-боты, рефакторинг;
✅Инструкции и best practices по настройке среды, форматированию входных данных и управлению контекстом
✅Методы оценки и повышения точности ответов моделей
✅Ежедневные обновления с новыми статьями, исследованиями и примерами из реальных проектов.
🧠 Ключевые особенности:
✅Ориентация на in-context learning — методы обучения LLM без fine-tuning
✅Уделяется внимание устойчивости промтов к ошибкам и jailbreak-атакам
✅Учёт контекста, примеров, ролевых инструкций, цепочек рассуждений (chain-of-thought)
✅Подходит как для разработчиков и аналитиков, так и для преподавателей и исследователей
💻 GitHub
GitHub
GitHub - EgoAlpha/prompt-in-context-learning: Awesome resources for in-context learning and prompt engineering: Mastery of the…
Awesome resources for in-context learning and prompt engineering: Mastery of the LLMs such as ChatGPT, GPT-3, and FlanT5, with up-to-date and cutting-edge updates. - EgoAlpha/prompt-in-context-lear...
🎯 ТОП фреймворков глубокого обучения в 2025 году — что выбрать для проекта?
MXNet - гибкий фреймворк с поддержкой символического и императивного программирования. Отлично масштабируется, идеально подходит для продакшена и тесно интегрирован с AWS. Сложен для новичков, но даёт максимум при работе с большими данными
DL4J (Deeplearning4j) - фреймворк на Java и Scala, отлично интегрируется с Hadoop и Spark. Подходит для крупных бизнесов, особенно если вы уже работаете в Java-экосистеме
Chainer - идеален для исследований и быстрого прототипирования. Поддерживает динамические графы, что делает его похожим на PyTorch. Удобен для нестандартных архитектур и тестов новых идей
CNTK (Microsoft Cognitive Toolkit) - разработан Microsoft, хорошо справляется с задачами распознавания речи и изображений. Оптимизирован под масштабные проекты и работу с несколькими GPU. Глубоко интегрирован с Azure.
Amazon SageMaker - полностью управляемый ML-сервис. Подходит тем, кто хочет быстро строить и разворачивать модели без головной боли с инфраструктурой. Поддерживает автоматическую настройку, масштабирование, предобученные модели. Минус — цена и зависимость от AWS
Apache Mahout - не совсем deep learning, но отличный инструмент для анализа больших данных, коллаборативной фильтрации и кластеризации. Работает в связке с Hadoop. Подойдёт для рекомендательных систем и обработки пользовательских данных
Accord.NET - фреймворк на .NET для машинного обучения, компьютерного зрения и обработки сигналов. Прост в использовании, хорош для малых и средних проектов. Подойдёт разработчикам в медицинской сфере, робототехнике и промышленности
MXNet - гибкий фреймворк с поддержкой символического и императивного программирования. Отлично масштабируется, идеально подходит для продакшена и тесно интегрирован с AWS. Сложен для новичков, но даёт максимум при работе с большими данными
DL4J (Deeplearning4j) - фреймворк на Java и Scala, отлично интегрируется с Hadoop и Spark. Подходит для крупных бизнесов, особенно если вы уже работаете в Java-экосистеме
Chainer - идеален для исследований и быстрого прототипирования. Поддерживает динамические графы, что делает его похожим на PyTorch. Удобен для нестандартных архитектур и тестов новых идей
CNTK (Microsoft Cognitive Toolkit) - разработан Microsoft, хорошо справляется с задачами распознавания речи и изображений. Оптимизирован под масштабные проекты и работу с несколькими GPU. Глубоко интегрирован с Azure.
Amazon SageMaker - полностью управляемый ML-сервис. Подходит тем, кто хочет быстро строить и разворачивать модели без головной боли с инфраструктурой. Поддерживает автоматическую настройку, масштабирование, предобученные модели. Минус — цена и зависимость от AWS
Apache Mahout - не совсем deep learning, но отличный инструмент для анализа больших данных, коллаборативной фильтрации и кластеризации. Работает в связке с Hadoop. Подойдёт для рекомендательных систем и обработки пользовательских данных
Accord.NET - фреймворк на .NET для машинного обучения, компьютерного зрения и обработки сигналов. Прост в использовании, хорош для малых и средних проектов. Подойдёт разработчикам в медицинской сфере, робототехнике и промышленности
deeplearning4j.konduit.ai
Deeplearning4j Suite Overview | Deeplearning4j
Introduction to core Deeplearning4j concepts.
Что вы предпочтёте, если онлайн-метрики CTR начали падать после деплоя новой версии рекомендательной модели?
Anonymous Poll
33%
Провести A/B тест с fallback на старую модель
17%
Перепроверить схему feature engineering в проде vs train
33%
Проверить дрифт входных данных с помощью мониторинга (e.g., KS test, PSI)
17%
Внедрить модель-сторож (canary) и обучить online-learning слой
⚠️ Slopsquatting — новая угроза в цепочке поставок ПО, вызванная галлюцинациями ИИ
Если вы когда-либо копировали предложенный ИИ пакет Python и думали: «А это вообще существует?» — вы уже сталкивались с основой атаки под названием slopsquatting.
⚠️ Что это такое?
Slopsquatting — это когда злоумышленники регистрируют несуществующие пакеты, «придуманные» ИИ (например, ChatGPT или GitHub Copilot), надеясь, что кто-то скопирует и установит их, не проверяя.
🔍 В исследовании «We Have a Package for You!» анализировали 576 тыс. кодов, сгенерированных 16 ИИ-моделями. Результаты тревожны:
✅Почти 20% рекомендованных пакетов — вымышленные.
✅GPT-4 Turbo галлюцинирует реже всех (3,6%), а open-source модели — чаще всего (до 34%).
✅58% ложных пакетов стабильно повторяются — это делает их особенно привлекательными для злоумышленников.
🤔 Почему это опасно?
В эпоху vibe coding — когда разработчики скорее «курируют» код, чем пишут — фальшивые зависимости легко просачиваются в проекты.
🔐 Что делать?
Можно использовать такие инструменты, как Socket или расширения для браузера, которые проверяют зависимости до установки.
💻Подробнее можно прочитать тут
Если вы когда-либо копировали предложенный ИИ пакет Python и думали: «А это вообще существует?» — вы уже сталкивались с основой атаки под названием slopsquatting.
⚠️ Что это такое?
Slopsquatting — это когда злоумышленники регистрируют несуществующие пакеты, «придуманные» ИИ (например, ChatGPT или GitHub Copilot), надеясь, что кто-то скопирует и установит их, не проверяя.
🔍 В исследовании «We Have a Package for You!» анализировали 576 тыс. кодов, сгенерированных 16 ИИ-моделями. Результаты тревожны:
✅Почти 20% рекомендованных пакетов — вымышленные.
✅GPT-4 Turbo галлюцинирует реже всех (3,6%), а open-source модели — чаще всего (до 34%).
✅58% ложных пакетов стабильно повторяются — это делает их особенно привлекательными для злоумышленников.
🤔 Почему это опасно?
В эпоху vibe coding — когда разработчики скорее «курируют» код, чем пишут — фальшивые зависимости легко просачиваются в проекты.
🔐 Что делать?
Можно использовать такие инструменты, как Socket или расширения для браузера, которые проверяют зависимости до установки.
💻Подробнее можно прочитать тут
Что бы вы предпочли для повышения интерпретируемости модели в задачах предсказания оттока клиентов?
Anonymous Poll
21%
Построить модель на основе деревьев решений (например, XGBoost)
43%
Применить SHAP для объяснения сложной модели
21%
Построить логистическую регрессию с отбором признаков
14%
Использовать attention-механизмы для выделения важных признаков
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 Учёные из Японии создали живую кожу для роботов
Исследователи Токийского университета впервые в истории покрыли лицо робота настоящей кожей, выращенной из человеческих клеток.
🗂Вот ключевые факты об этой инновации:
✅Полный реализм: кожа имитирует текстуру, эластичность и внешний вид настоящей человеческой кожи. Более того, робот может двигать лицевыми мышцами и демонстрировать простейшую мимику — улыбку, нахмуренные брови, лёгкое удивление.
✅Самовосстановление: небольшие порезы или трещины зарастают сами. Для роботов это значит меньше обслуживания и более «живой» внешний вид со временем.
✅Уникальное крепление: чтобы кожа двигалась естественно и не отставала от механических компонентов, учёные придумали крепить её с помощью V-образных надрезов, имитируя естественные складки, и закреплять коллагеновым гелем. Это обеспечивает подвижность, прочность и высокую адаптивность.
📎 Подробнее о разработке тут
Исследователи Токийского университета впервые в истории покрыли лицо робота настоящей кожей, выращенной из человеческих клеток.
🗂Вот ключевые факты об этой инновации:
✅Полный реализм: кожа имитирует текстуру, эластичность и внешний вид настоящей человеческой кожи. Более того, робот может двигать лицевыми мышцами и демонстрировать простейшую мимику — улыбку, нахмуренные брови, лёгкое удивление.
✅Самовосстановление: небольшие порезы или трещины зарастают сами. Для роботов это значит меньше обслуживания и более «живой» внешний вид со временем.
✅Уникальное крепление: чтобы кожа двигалась естественно и не отставала от механических компонентов, учёные придумали крепить её с помощью V-образных надрезов, имитируя естественные складки, и закреплять коллагеновым гелем. Это обеспечивает подвижность, прочность и высокую адаптивность.
📎 Подробнее о разработке тут