Forwarded from Golang
👨🎓 Algorithmica
Это бесплатный учебник с открытым доступом, посвященная изучению алгоримтов.
В нем можно найти абсолютно любой алгоритм с кодом и хорошим объяснением.
▪Учебник на русском
▪На английском
▪Github
@golang_google
Это бесплатный учебник с открытым доступом, посвященная изучению алгоримтов.
В нем можно найти абсолютно любой алгоритм с кодом и хорошим объяснением.
▪Учебник на русском
▪На английском
▪Github
@golang_google
❤21🔥12👍4
🧠 Разбираем Функцию Радемахера. Машинное обучение Курс математики
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок8 / Урок9
- Colab
-Полный курс
@data_math
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок8 / Урок9
- Colab
-Полный курс
@data_math
YouTube
Разбираем Функцию Радемахера. Машинное обучение Курс математики
Средние по Радемахеру — это математический инструмент, который помогает оценить сложность класса функций. Они используются для анализа того, насколько хорошо модель может обобщать данные.
🔥 https://www.tgoop.com/+CTH__X6H21JjMWJi - в нашем телеграм канале собрана…
🔥 https://www.tgoop.com/+CTH__X6H21JjMWJi - в нашем телеграм канале собрана…
👍6🔥2❤1👎1
Forwarded from Machinelearning
Apple разрабатывает и запускает Apple Intelligence AI в Китае в партнерстве с Alibaba. Ранее компания тестировала различные модели ИИ от китайских разработчиков и выбрала Baidu в качестве основного партнера, но затем отказалась от этого соглашения из-за несоответствия стандартам Apple. Среди других рассматриваемых партнеров были Tencent, ByteDance и DeepSeek. Apple отказалась от сотрудничества с DeepSeek из-за недостатка опыта и персонала для поддержки компании масштаба Apple.
В последнем квартале продажи Apple в Китае упали на 11,1%, что является самым большим падением доходов с аналогичным кварталом 2024 года. Инструменты Apple Intelligence стимулируют спрос на устройства, но правительство Китая требует от от Apple сотрудничества с местными разработчиками.
theinformation.com
Сундар Пичаи заявил, что ИИ — технология, которая появляется раз в жизни, способная демократизировать доступ к информации в большей степени, чем интернет. Он отметил, что за 18 месяцев стоимость обработки одного токена снизилась на 97%. Google уже более 10 лет инвестирует в ИИ, чтобы систематизировать мировую информацию, делая ее доступной для всех.
Гендир Google рассказал о прогрессе в области квантовых вычислений и автономных автомобилей, расширении доступа к информации через возможности Google Translate, а AlphaFold уже используется 2,5 миллионами исследователей для создания вакцин против малярии, методов лечения рака и ферментов, перерабатывающих пластик.
В конце выступления, Сундар поделился планами об инвестициях 75 млрд. долл. в капитальные затраты в 2025 году и призвал к созданию глобальной политики, которая поддержит инновации и согласованность между странами в регулировании ИИ.
blog.google
IT-гигант планирует ускорить наем ML-инженеров в ближайшие недели, несмотря на сокращение 5% штата( это примерно 4000 рабочих мест). Компания начала уведомлять своих сотрудников о сокращении в США, Европе и Азии.
Марк Цукерберг заявил о намерении повысить требования к управлению производительностью и быстрее избавляться от низкоэффективных сотрудников. Его компания планирует провести собеседования в формате ML Batch Day с 11 февраля по 13 марта.
HR-департамент ищет сотрудников, имеющих опыт проведения собеседований, для помощи в проведении 420 собеседований с инженерами-программистами, 225 поведенческих собеседований и 50 собеседований по проектированию систем машинного обучения.
businessinsider.com
Подписчики One AI Premium получат доступ к NotebookLM Plus без дополнительной платы с повышенными лимитами использования и премиальные функции настройки ответов сервиса NotebookLM.
Сейчас Google предлагает One AI Premium за 19,99 долларов в месяц с 2 ТБ хранилища и доступом к Gemini Advanced и Gemini в приложениях Workspace (Gmail и Docs). Студенты старше 18 лет в США могут получить One AI Premium за 9,99 долларов в месяц в течение 1 года.
NotebookLM Plus имеет расширенные интерактивные функции: видео на YouTube в качестве источника и преобразование в подкаст с двумя AI-ведущими, с которыми также можно общаться.
theverge.com
ByteDance представила новые модели Goku, которые генерируют реалистичные видеоролики с участием людей, взаимодействующих с предметами. В отличие от других видеомоделей, Goku может создавать как статичные изображения, так и видео из текстовых описаний. По тестам ByteDance, Goku превосходит Kling и Pika в бенчмарках генерации изображений и видео.
Goku+, специальная версия, ориентирована на создание рекламного контента. ByteDance утверждает, что она сможет снизить затраты на продакшен видеорекламы на 99%. Компания планирует использовать TikTok для предоставления сервиса рекламодателям.
saiyan-world.github.io
@ai_machinelearning_big_data
#ainews #news #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5🔥2
Forwarded from Machinelearning
Oumi - открытая платформа для разработки, файнтюна, оценки и экспериментов с языковыми и мультимодальными моделями, созданная совместными усилиями исследователей из 13 ведущих университетов.
Oumi предоставляет инструменты и рабочие процессы для разработки и запуска масштабных экспериментов на кластере, развертывания моделей в рабочей среде и поддерживает методы распределенного обучения (FSDP, DDP):
В репозитории проекта собраны готовые ноутбуки и скрипты для каждого из этапов жизненного цикла моделей, а подробная документация по использованию поможет легко освоить эту платформу.
@ai_machinelearning_big_data
#AI #ML #Oumi #Framework
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Microsoft только что выпустила впечатляющий инструмент - OmniParser V2, который может превратить любого LLM в агента, способного использовать компьютер.
Он решает две ключевые проблемы GUI-автоматизации:
- Обнаружение интерактивных элементов.
Традиционно LLM испытывают трудности с определением мелких иконок и других элементов пользовательского интерфейса. OmniParser V2 «токенизирует» скриншоты – переводит изображение экрана из пиксельного пространства в структурированные данные, представляющие интерактивные объекты.
Понимание семантики интерфейса.
Инструмент структурирует информацию так, чтобы LLM могли проводить поиск по элементам и предсказывать следующее действие на основе полученной информации.
Плюсы OmniParser V2
- Повышенная точность:
Благодаря обучению на большем объеме данных для обнаружения интерактивных элементов и функциональных описаний иконок, OmniParser V2 существенно улучшает точность даже для очень маленьких элементов по сравнению с предыдущей версией .
Сокращение задержки:
- Оптимизация размера изображения в модели описания иконок позволила снизить задержку на 60% по сравнению с предыдущей версией, что делает его более оперативным в реальном времени.
Гибкость и интеграция:
- OmniParser V2 легко интегрируется с современными LLM, такими как GPT-4o, DeepSeek, Qwen и Anthropic Sonnet. Это позволяет комбинировать распознавание интерфейса, планирование действий и их исполнение в одном конвейере.
Поддержка тестов через OmniTool:
- Для быстрого тестирования различных настроек агентов разработана платформа OmniTool – docker-решение на базе Windows, содержащее все необходимые инструменты для экспериментов.
Минусы и ограничения
- Требования к техническим навыкам:
Для развертывания и интеграции OmniParser V2 требуется определённый уровень технической подготовки, особенно если вы планируете экспериментировать с настройками через OmniTool.
Ограничения в безопасности:
- Из соображений ответственного использования (Responsible AI), рекомендуется применять OmniParser V2 только к скриншотам, не содержащим чувствительной или личной информации. Это помогает минимизировать риски утечки данных , .
Исследовательская стадия:
На данный момент инструмент ориентирован на исследовательские и экспериментальные задачи, и его коммерческое использование может требовать доработок или адаптации под конкретные задачи.
Как пользоваться OmniParser V2:
Развертывание через OmniTool:
Для упрощения экспериментов Microsoft разработала OmniTool – dockerизированную систему на базе Windows. Запустив OmniTool, вы получите преднастроенную среду, в которой OmniParser V2 может работать с различными LLM.
Подготовка скриншотов:
Сделайте скриншоты пользовательского интерфейса, которые хотите автоматизировать. OmniParser V2 обработает изображение, преобразовав его в структурированные данные, где каждому интерактивному элементу будет присвоен уникальный токен.
Интеграция с LLM:
Передайте полученные данные выбранной языковой модели. LLM, получив «токенизированный» интерфейс, сможет проводить retrieval-based next action prediction, то есть предсказывать следующее действие пользователя на основе распознанных элементов.
Исполнение действий:
После того как LLM определит, какое действие следует выполнить (например, нажатие на кнопку или выбор меню), система может автоматизированно выполнить это действие в графическом интерфейсе.
OmniParser V2 существенно расширяет возможности LLM, превращая их в эффективных агентов для работы с графическими интерфейсами.
▪GitHub → https://github.com/microsoft/OmniParser/tree/master
▪Official blog post → https://microsoft.com/en-us/research/articles/omniparser-v2-turning-any-llm-into-a-computer-use-agent/
▪Hugging Face → https://huggingface.co/microsoft/OmniParser-v2.0
@data_analysis_ml
Он решает две ключевые проблемы GUI-автоматизации:
- Обнаружение интерактивных элементов.
Традиционно LLM испытывают трудности с определением мелких иконок и других элементов пользовательского интерфейса. OmniParser V2 «токенизирует» скриншоты – переводит изображение экрана из пиксельного пространства в структурированные данные, представляющие интерактивные объекты.
Понимание семантики интерфейса.
Инструмент структурирует информацию так, чтобы LLM могли проводить поиск по элементам и предсказывать следующее действие на основе полученной информации.
Плюсы OmniParser V2
- Повышенная точность:
Благодаря обучению на большем объеме данных для обнаружения интерактивных элементов и функциональных описаний иконок, OmniParser V2 существенно улучшает точность даже для очень маленьких элементов по сравнению с предыдущей версией .
Сокращение задержки:
- Оптимизация размера изображения в модели описания иконок позволила снизить задержку на 60% по сравнению с предыдущей версией, что делает его более оперативным в реальном времени.
Гибкость и интеграция:
- OmniParser V2 легко интегрируется с современными LLM, такими как GPT-4o, DeepSeek, Qwen и Anthropic Sonnet. Это позволяет комбинировать распознавание интерфейса, планирование действий и их исполнение в одном конвейере.
Поддержка тестов через OmniTool:
- Для быстрого тестирования различных настроек агентов разработана платформа OmniTool – docker-решение на базе Windows, содержащее все необходимые инструменты для экспериментов.
Минусы и ограничения
- Требования к техническим навыкам:
Для развертывания и интеграции OmniParser V2 требуется определённый уровень технической подготовки, особенно если вы планируете экспериментировать с настройками через OmniTool.
Ограничения в безопасности:
- Из соображений ответственного использования (Responsible AI), рекомендуется применять OmniParser V2 только к скриншотам, не содержащим чувствительной или личной информации. Это помогает минимизировать риски утечки данных , .
Исследовательская стадия:
На данный момент инструмент ориентирован на исследовательские и экспериментальные задачи, и его коммерческое использование может требовать доработок или адаптации под конкретные задачи.
Как пользоваться OmniParser V2:
Развертывание через OmniTool:
Для упрощения экспериментов Microsoft разработала OmniTool – dockerизированную систему на базе Windows. Запустив OmniTool, вы получите преднастроенную среду, в которой OmniParser V2 может работать с различными LLM.
Подготовка скриншотов:
Сделайте скриншоты пользовательского интерфейса, которые хотите автоматизировать. OmniParser V2 обработает изображение, преобразовав его в структурированные данные, где каждому интерактивному элементу будет присвоен уникальный токен.
Интеграция с LLM:
Передайте полученные данные выбранной языковой модели. LLM, получив «токенизированный» интерфейс, сможет проводить retrieval-based next action prediction, то есть предсказывать следующее действие пользователя на основе распознанных элементов.
Исполнение действий:
После того как LLM определит, какое действие следует выполнить (например, нажатие на кнопку или выбор меню), система может автоматизированно выполнить это действие в графическом интерфейсе.
OmniParser V2 существенно расширяет возможности LLM, превращая их в эффективных агентов для работы с графическими интерфейсами.
▪GitHub → https://github.com/microsoft/OmniParser/tree/master
▪Official blog post → https://microsoft.com/en-us/research/articles/omniparser-v2-turning-any-llm-into-a-computer-use-agent/
▪Hugging Face → https://huggingface.co/microsoft/OmniParser-v2.0
@data_analysis_ml
🙏10❤4🔥1
Forwarded from Анализ данных (Data analysis)
📚 "Painful intelligence: What AI can tell us about human suffering
Эта бесплатная книга — путеводитель по миру машинного обучения!
Основное, что в ней рассматривается:
• Базовые концепции: Алгоритмы, математические основы и принципы построения моделей.
• Глубокое обучение: Нейронные сети, методы оптимизации и регуляризация для повышения качества моделей.
• Практические кейсы: Реальные примеры применения ML в различных отраслях, от анализа данных до прогнозирования.
• Современные методики: Настройка гиперпараметров, интерпретация результатов и стратегии улучшения производительности.
Для специалиста по машинному обучению эта книга станет полезным ресурсом, помогая углубить знания, найти новые подходы и повысить эффективность проектов.
📚 Книга
@data_analysis_ml
#freebook #book #ai #ml #machinelearning #opensource
Эта бесплатная книга — путеводитель по миру машинного обучения!
Основное, что в ней рассматривается:
• Базовые концепции: Алгоритмы, математические основы и принципы построения моделей.
• Глубокое обучение: Нейронные сети, методы оптимизации и регуляризация для повышения качества моделей.
• Практические кейсы: Реальные примеры применения ML в различных отраслях, от анализа данных до прогнозирования.
• Современные методики: Настройка гиперпараметров, интерпретация результатов и стратегии улучшения производительности.
Для специалиста по машинному обучению эта книга станет полезным ресурсом, помогая углубить знания, найти новые подходы и повысить эффективность проектов.
📚 Книга
@data_analysis_ml
#freebook #book #ai #ml #machinelearning #opensource
👍6❤4🥰2👎1
Forwarded from Machinelearning
Microsoft совершила прорыв в области квантовых вычислений, представив чип Majorana 1, который использует новую архитектуру Topological Core. Чип создан с применением уникального материала — топологического сверхпроводника и позволяет управлять частицами Майораны, делая кубиты более стабильными и масштабируемыми.
Основное преимущество новой технологии — её устойчивость к ошибкам на аппаратном уровне. В отличие от существующих аналогов, Majorana 1 позволяет контролировать кубиты цифровым способом, делая процесс вычислений более надёжным. Учёные Microsoft разместили 8 топологических кубитов на чипе, который в будущем сможет масштабироваться до миллиона.
news.microsoft.com
Muse — первая в мире модель, способная генерировать визуальные элементы и игровые действия. Разработанная в сотрудничестве с Xbox Game Studios и Ninja Theory, модель Muse использует данные из игры Bleeding Edge, чтобы предсказывать и создавать последовательности игрового процесса.
Muse показала впечатляющие возможности, генерируя сложные сцены, которые остаются согласованными на протяжении нескольких минут. Модель обучалась на более чем миллиарде изображений и действий ( это примерно 7 лет непрерывного игрового процесса). Уникальность Muse заключается в её способности не только воспроизводить, но и предсказывать развитие игровых событий.
Microsoft также представила WHAM Demonstrator — инструмент для взаимодействия с Muse и экспериментировать с её возможностями.
Muse и WHAM Demonstrator доступны на платформе Azure AI Foundry.
microsoft.com
Исследователи из Университета технологий Сиднея представили новый алгоритм Torque Clustering (TC), который умеет находить закономерности в данных без участия человека. Вдохновленный процессом слияния галактик, этот метод позволяет ИИ учиться самостоятельно, кратно сокращая необходимость в ручной разметке данных. Алгоритм уже показал высокие результаты, достигнув точности в 97,7% на 1 тыс. датесетах.
В отличие от традиционного ИИ, который требует огромного количества размеченных данных, TC работает по принципу естественного наблюдения, подобно тому, как животные изучают окружающий мир.
studyfinds.org
DeepSeek объявил о намерениях привлечения дополнительного внешнего финансирования, поскольку планирует трансформироваться из исследовательской лаборатории в коммерческую организацию.
Первой выразила намерение инвестировать Alibaba Group, на запрос также откликнулись китайские компании и фонды с государственным участием : China Investment Corporation, National Sovereign Wealth Fund и National Social Security Fund.
Помимо инвестиций, DeepSeek рассматривает варианты использования ЦОД в Юго-Восточной Азии для расширения ресурсов и доступа к дополнительными GPU Nvidia.
theinformation.com
"Со-ученый" на базе ИИ от Google ускоряет биомедицинские исследования, помогая исследователям находить пробелы в знаниях и предлагать новые идеи. По словам Алана Картикесалингама, старшего научного сотрудника Google, цель проекта — дать ученым "суперспособности" для более быстрого достижения научных открытий.
Инструмент уже прошел первые испытания с участием экспертов из Стэнфордского университета, Колледжа Лондона и больницы Houston Methodist. В одном из случаев ИИ смог за несколько дней прийти к тем же выводам, что и команда ученых из Лондона, которые потратили на исследование несколько лет.
Архитектура построена на нескольких ИИ-агентов, каждый из которых выполняет свою роль: один генерирует идеи, другой анализирует и оценивает их. Модель способна извлекать информацию из научных статей и специализированных баз данных, а затем предлагать исследователям ранжированный список гипотез с объяснениями и ссылками на источники.
research.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3❤2🤔1
Forwarded from Machinelearning
ReasonFlux - методика, которая используется как для обучения, так и для инференса, чтобы повысить способность LLM к сложному логическому мышлению. Применение метода позволяет превосходить OpenAI o1-preview и DeepSeek V3 в задачах математического рассуждения.
При использовании в обучении ReasonFlux использует иерархическую структуру с подкреплением на последовательности высокоуровневых шаблонов мышления. Это позволяет базовой LLM научиться планировать оптимальную траекторию шаблонов для решения сложных задач. В процессе обучения ReasonFlux анализирует и обобщает информацию о решении задач, выявляя общие закономерности, и на основе этого создает шаблоны мышления.
Во время инференса ReasonFlux автоматически извлекает релевантные шаблоны мышления и масштабирует их для достижения превосходной производительности в сложных задачах рассуждения. Он динамически выбирает наиболее подходящий шаблон высокого уровня для каждой подзадачи, упрощая поиск путей рассуждений. ReasonFlux использует новую систему масштабирования во время вывода, которая адаптирует шаблоны мышления.
В экспериментальных тестах ReasonFlux-32B достиг 91,2% точности на MATH benchmark, опередив o1-preview на 6,7%. На AIME benchmark модель решила в среднем 56,7% задач, превзойдя o1-preview и DeepSeek-V3 на 27% и 45% соответственно.
Практическая реализация метода доступна в репозитории проекта, в нем cодержится необходимый код и описание для файнтюна LLM на примере SFT-датасета решений GaoKao Bench.
⚠️ Для трейна моделей на SFT-сете проект использует фреймворк LLaMA-Factory.
# Clone the repository
git clone https://github.com/ReasonFlux
cd ReasonFlux
# Create a Conda venv
conda create -n ReasonFlux python==3.9
conda activate ReasonFlux
# Install dependencies
pip install -r requirements.txt
# When you complete your first-stage training, you can try to use simple inference
from reasonflux import ReasonFlux
reasonflux = ReasonFlux(navigator_path='path-to-navigator',
template_matcher_path='jinaai/jina-embeddings-v3',
inference_path='path-to-infernece-model',
template_path='template_library.json')
problem = """Given a sequence {aₙ} satisfying a₁=3, and aₙ₊₁=2aₙ+5 (n≥1), find the general term formula aₙ"""
@ai_machinelearning_big_data
#AI #ML #LLM #ReasonFlux
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🤷♂1❤1
Forwarded from Machinelearning
В первый день анонсированного на прошлой неделе мероприятия "5 дней опенсорс-проектов" Deepseek опубликовала проект FlashMLA. Это ядро оптимизировано для последовательностей переменной длины, поддерживает BF16 и использует страничный KV (с размером блока 64). Вся эта совокупность позволяет значительно повышать эффективность вычислений.
На H800 FlashMLA показал пропускную способности памяти до 3000 ГБ/с и вычислительную производительность в 580 терафлопс. FlashMLA ускорит процесс рассуждений ИИ и обеспечит более эффективные решения в сфере обработки естественного языка.
Deepseek в X (Twitter)
Alibaba Group планирует инвестировать более 380 миллиардов юаней (около 53 миллиардов долларов США) в развитие облачной инфраструктуры и технологий ИИ в течение следующих 3 лет. Объем этой инвестиция превышает все предыдущие вложения Alibaba в облачные технологии и ИИ за последнее десятилетие и является крупнейшей инвестицией частной китайской компании в эту сферу. Решение об инвестировании было принято на фоне бурного роста индустрии ИИ в Китае и после совещания с участием высших китайских руководителей, посвященного частным предприятиям.
english.news.cn
Согласно информации на странице проекта, каждая секунда сгенерированного видео обойдётся пользователям в 50 центов. Это означает, что минута видео будет стоить $30, а час — $1800. Для сравнения, инженер Google DeepMind Джон Бэррон привёл пример с бюджетом фильма «Мстители: Финал», где стоимость одной секунды составила около $32 000.
Veo 2 пока не способен генерировать длинные видеоролики, модель ориентирована на продолжительность генерации до двух минут. Тем не менее, такие цены вызывают вопросы о доступности технологии для широкого круга пользователей.
techcrunch.com
MongoDB приобрела компанию Voyage AI за 220 млн. долларов, чтобы помочь своим клиентам создавать более качественные приложения на основе ИИ. Сделка направлена на обеспечение высокоточной и релевантной выдачи информации, тесно интегрированной с операционными данными.
Технология Voyage AI позволяет извлекать смысл из специализированных текстов и неструктурированных данных: юридических и финансовых документов, изображений и корпоративных баз знаний. Объединение этих технологий с инфраструктурой MongoDB позволит создать максимально надежное решение для разработчиков ИИ.
bloomberg.com
Perplexity AI готовится к запуску собственного веб-браузера под названием Comet. Компания заявила, что Comet "переосмыслит" сам подход к веб-серфингу, подобно тому, как Perplexity изменила представление о поиске информации. Этот анонс может стать прямым вызовом Google, доминирующим в сфере браузеров. Дата релиза пока неизвестна, но доступна запись в лист ожидания по ссылке.
zdnet.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3