Telegram Web
✔️ Holo1 — ИИ, который управляет веб-интерфейсами, как человек

Holo1 — новое семейство open-source моделей от H Company, созданных специально для понимания и автоматизации веб-интерфейсов.

Это Action VLM-модели, которые могут "видеть" сайт, распознавать кнопки, поля, меню и действовать, как реальный пользователь.

Доступно
Holo1-3B и Holo1-7B — последняя достигает 76.2% точности на UI-бенчмарках (лучший результат среди компактных моделей)
WebClick — датасет из 1 639 задач, имитирующих поведение человека в интерфейсе

💸 И главное:
Автоматизация реальных веб-задач (читать, кликать, вводить) с точностью 92.2% всего за $0.13 за задачу. Раньше за такую точность приходилось переплачивать в разы.

⚙️ Surfer-H — ИИ, который сам "читаeт", "думаeт", "кликаeт" и "проверяет"
Построен на базе Holo1 и работает прямо в браузере — никаких API и костылей.

Состоит из 3 модулей:
1. Policy — планирует поведение агента
2. Localizer — находит нужные элементы на экране
3. Validator — проверяет, всё ли сделано правильно

🔗 Hugging Face

@ai_machinelearning_big_dat

#Holo #web
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6932🔥23🤔7
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширила возможности ChatGPT для бизнеса.

ChatGPT для корпоративных пользователей теперь поддерживает интеграцию с Dropbox, Box, SharePoint, OneDrive и Google Drive, позволяя анализировать данные из корпоративных хранилищ в реальном времени.

Плюс, добавили функцию record mode - это запись встреч с автоматической генерацией заметок, таймкодами и выделением задач. Это как у Zoom и Notion, но с возможностью превращать темы обсуждений в структурированные документы в Canvas.

Для Deep Research стали доступны бета-коннекторы к HubSpot, Linear и инструментам Microsoft/Google. А еще Pro, Team и Enterprise пользователи получили доступ к MCP .
OpenAI в сети X (ex-Twitter)

✔️ Anthropic добавила новые функции в план Claude Pro.

Anthropic обновила подписку Claude Pro, добавив в нее несколько полезных функций для тех, кто работает с кодом. Подписчикам плана стал доступен Claude Code - инструмент для работы с небольшими проектами (до 1000 строк кода). Правда, лимиты остаются: около 10-40 запросов каждые 5 часов, а модель Opus 4 здесь не поддерживается.

Еще одна возможность - Claude-Squad. Он позволяет запускать несколько агентов одновременно. Интеграция с VS Code и Cursor уже есть, а Figma добавила официальный MCP-сервер, который активируется в настройках.
Anthropic в сети Х (ex-Twitter)

✔️ OpenAudio S1: синтез речи с эмоциями на 12 языках.

OpenAudio (создатели FishSpeech) представила TTS-модель S1, способную воссоздавать естественную речь с эмоциями и акцентами. Обученная на 2 млн часов аудио, она использует архитектуру Qwen3 с 4 млрд параметров, RLHF-оптимизацию и кодек, подобный Descript Audio Codec.

Модель поддерживает метки точного контроля: от злых интонаций до шепота или смеха. S1 работает на 12 языках, включая русский. Старшая модель (4B) доступна только как сервис по цене $0.8 за час синтеза, а S1-mini (0.5 млрд параметров) опубликована для некоммерческого использования на HuggingFace.
openaudio.com

✔️ DeepSeek обвиняют в использовании данных конкурентов для обучения своей модели.

Исследователи подозревают, что часть обучающих данных модели DeepSeek R1-0528 могла быть взята из инференса Google Gemini. Независимые эксперты заметили сходство в выборе слов и логике работы. Модель «думает» так же, как Gemini.

Ранее DeepSeek уже обвиняли в копировании данных OpenAI. Их предыдущая версия, V3, иногда выдавала себя за ChatGPT. Microsoft и OpenAI тогда заявили, что через API-аккаунты компании якобы утекали данные.

В ответ на утечки усилили защиту: Google и Anthropic теперь скрывают процесс размышлений своих моделей, чтобы затруднить копирование.
techcrunch.com

✔️ ИИ научили определять границы своих знаний.

MIT через стартап Themis AI решила ключевую проблему современных ИИ-систем: их неспособность честно признать, когда они не уверены в ответе. Платформа Capsa модифицирует любую ML-модель, выявляя ненадежные выводы. Она анализирует паттерны обработки данных, сигнализирующие о неоднозначности, неполноте информации или скрытых смещениях.

Capsa может показать, основан ли прогноз на реальных данных или это чистая спекуляция модели. Так же она помогает большим языковым моделям "самоотчитываться" о своей уверенности в каждом ответе, отсеивая "галлюцинации".

Технология уже тестируется в телекоме, нефтегазе и фарме.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
62👍37🔥14🥰4👌1
✔️ Cursor 1.0 — стабильный релиз с полезными фичами

Новая стабильная версия Cursor, и в ней появилось много обновлений, которые делают работу с кодом удобнее.

Вот что стоит отметить:

🐞 Bugbot
Автоматически проверяет Pull Request'ы на баги и предлагает исправления.
Можно внести правку прямо в редакторе — в один клик.

🧠 Memory (beta)
Cursor теперь запоминает контекст проекта, что помогает при командной работе и упрощает навигацию по коду.

⚙️ One-Click MCP Setup
Настройка подключения к Model Context Protocol — теперь через одну кнопку, без ручной конфигурации.

📌 Дополнительно в 1.0:
• Возможность редактировать несколько мест в коде одновременно
• Поддержка таблиц, Markdown и диаграмм Mermaid в чате
• Обновлённые настройки и админ-панель
• Фоновая работа агентов — можно интегрировать их со Slack и Jupyter Notebooks

Cursor постепенно становится более удобной средой для совместной работы с ИИ-помощником.

https://www.cursor.com/changelog

@ai_machinelearning_big_data

#CursorAI #AIcoding #DevTools #Jupyter #CodeAssistant
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
172🔥29👍19🤬3👀3🥰1
🌟 Microsoft GUI-Actor: взаимодействие ИИ с GUI без использования координат.

GUI-Actor — методика на базе VLM, которая вместо традиционной генерации координат текстом при визуальной обработке интерфейса использует внимание внутри модели.

Чтобы уйти от координатного подхода, в GUI-Actor используется специальный токен <ACTOR>, который "учится" связываться с визуальными патчами, соответствующими целевой области экрана. За один проход модель может запомнить сразу несколько кандидатов на действие.

Например, все кнопки "Сохранить" в сложном интерфейсе. Это очень похоже на человеческое восприятие: видеть сам элемент, а не его позиции по осям Х и Y.


Выбрать наиболее подходящий вариант из элементов-кандидатов помогает "верификатор". Это отдельная модель, оценивающая кандидатов от <ACTOR> и отбирающая самый подходящий для действия. Она не только улучшает точность, но и универсальна: ее можно подключить к другим моделям.

Обучение требует минимум ресурсов. Можно заморозить основную VLM (Qwen2-VL-7B) и дообучить только новый action head и токены. Это всего ~100М параметров для 7B-модели.

Комбинация из такого быстрого обучения + верификатор почти догоняет полноценно обученные аналоги, сохраняя общие способности базовой модели. Никакого "катастрофического забывания" - агент учится кликать интерфейсы, не разучиваясь описывать картинки.

Результаты тестов на сложном бенчмарке ScreenSpot-Pro с высоким разрешением и незнакомыми интерфейсами (CAD, научный софт) GUI-Actor-7B с Qwen2-VL показал 40.7 балла, а с Qwen2.5-VL — 44.6, обойдя даже UI-TARS-72B (38.1).

На других тестах (ScreenSpot, ScreenSpot-v2) он тоже лидирует, особенно в иконках и текстовых элементах, демонстрируя крутую адаптацию к разным разрешениям и версткам.

▶️В открытый доступ опубликованы веса моделей:

🟢GUI-Actor-7B-Qwen2-VL;
🟢GUI-Actor-2B-Qwen2-VL;
🟠GUI-Actor-Verifier-2B.

В планах - выпуск еще двух моделей на основе Qwen2.5-VL (3B и 7B), демо GUI-Actor, код для модели-верификатора и датасеты для обучения.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #GUIActor #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4920🔥15🥰2
Reddit подаёт в суд на Anthropic за незаконное использование данных

Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.

Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"

📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”

😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?

Судебная битва за контент только начинается.

https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd

@ai_machinelearning_big_data

#reddit #Anthropic #ai #claude
🔥77👍3219😁10👏7🤬7🤣6🗿5
⚡️Релиз Qwen3-Embedding и Qwen3-Reranker

Главное:
Модели на 0.6B, 4B и 8B параметров
Поддержка 119 языков
Sota на MMTEB, MTEB и MTEB-Code
Открытый код на Hugging Face, GitHub и ModelScope
Доступ через API на Alibaba Cloud

🔍 Применение:
Поиск документов, RAG, классификация, поиск кода и др.

🟡 Qwen3-Embedding: https://huggingface.co/collections/Qwen/qwen3-embedding-6841b2055b99c44d9a4c371f
🟡Qwen3-Reranker: https://huggingface.co/collections/Qwen/qwen3-reranker-6841b22d0192d7ade9cdefea
🟡GitHub: https://github.com/QwenLM/Qwen3-Embedding
🟡Modelscope: https://modelscope.cn/organization/qwen

@ai_machinelearning_big_data

#qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
64👍31🔥19🥰5❤‍🔥2
✔️ Google представила превью обновлённой модели Gemini 2.5 0605

Новая версия уже доступна для тестирования и показывает заметные улучшения в:

🧠 кодинге
📊 логическом выводе
🔬 задачах по науке и математике

Pro-версия показывает прирост на 24 пункта Elo, удерживая лидерство на lmarena_ai с результатом 1470.

💬 Также улучшены стиль и структура ответов — Google учла фидбек пользователей.

Gemini обошёл Opus 4 в тестах на веб-разработку (WebDev Arena).

💰 Цены
— до 200 000 токенов: $1.25 вход / $10 выход (за 1M токенов)
— свыше 200 000 токенов: $2.50 вход / $15 выход (за 1M токенов)

🔧Модель достпна уже сейчас в:
- AI Studio
- Vertex AI
- Gemini app

https://blog.google/products/gemini/gemini-2-5-pro-latest-preview/

@ai_machinelearning_big_data

#Gemini #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5829🔥11🥰5
Media is too big
VIEW IN TELEGRAM
🎙️ ElevenLabs представила Eleven v3 (alpha) — самую выразительную модель озвучки текста

Самая выразительная модель озвучки текста на сегодня.
Поддерживает 70+ языков, многоголосовой режим, и теперь — аудио-теги, которые задают интонацию, эмоции и даже паузы в речи.

🧠 Новая архитектура лучше понимает текст и контекст, создавая естественные, "живые" аудио.

🗣️ Что умеет Eleven v3:
• Генерировать реалистичный диалог с несколькими голосами
• Считывать эмоциональные переходы
• Реагировать на контекст и менять тон в процессе речи

🎛 МОдель уаправляется через теги:
- Эмоции: [sad], [angry], [happily]
- Подача: [whispers], [shouts]
- Реакции: [laughs], [sighs], [clears throat]

📡 Публичный API обещают выкатить очень скоро.

⚠️ Это превью версия — может требовать точной настройки промптов. Но результат действительно впечатляет

💸 Весь июньдают 80% скидки на генерацию
🟡 Промпт-гайд для v3: https://elevenlabs.io/docs/best-practices/prompting/eleven-v3
Eleven v3.
🟡 Eleven v3: https://elevenlabs.io/v3

@ai_machinelearning_big_data

#ElevenLabs #tts
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥72👍3420😨6
Media is too big
VIEW IN TELEGRAM
✔️ Mistral запустил инструмент для "вайб-кодинга" Mistral Code.

Mistral представил Mistral Code — инструмент для программистов, который будет бороться за внимание пользователей с GitHub Copilot и другими аналогами. Продукт основан на открытом проекте Continue и включает в себя собственные модели Mistral: Codestral для автозаполнения кода, Devstral для решения задач через агенты, Mistral Medium для чатов и Codestral Embed для поиска. Поддерживаются 80+ языков программирования, интеграция с VS Code и JetBrains уже в бета-тестировании.

В компании говорят, что ассистент уже используют Capgemini, SNCF и банк Abanca. Mistral Code позволяет работать локально, обрабатывает файлы, ошибки в терминале и даже обсуждения из тикетов. Beta-версия доступна для тестирования, а часть улучшений обещают добавлять в опенсорс.
mistral.ai

✔️ Phonely, Maitai и Groq решили проблему задержек голосовом ИИ.

Компании совместно добились успеха, сократив задержку на 70% и повысив комплексную точность (ASR+генерация ответа) с 81,5% до 99,2%. Проблема «неловких пауз» в разговорах с роботами, которая выдавала их, устранена благодаря технологии Groq - «горячей замене» легких моделей LoRA без потерь в скорости.

Система работает так: Maitai выбирает оптимальную модель для каждого запроса, Groq обрабатывает ее на специализированных чипах LPU, а данные о слабых местах моделей собираются и используются для их доработки. В итоге время первого ответа снизилось с 661 до 176 мс, а синтез диалога стал в 4 раза быстрее.

Один из клиентов Phonely уже заменит 350 операторов колл-центра на ИИ, а количество качественных лидов выросло на 32%.
venturebeat.com

✔️ Aria Gen 2: подробности об умных очках с ИИ-обработкой.

Компания Марка Цукерберга раскрыла подробности об очках Aria Gen 2. Новинка весит 74–76 грамм, имеет 8 вариантов оправ и складные дужки для удобства. Главное изменение: 4 камеры с датчиками затвора, которые устойчивы к искажения при движении. Динамический диапазон вырос до 120 дБ, а угол перекрытия стереокамер увеличился до 80°, что улучшает определение глубины. В наносном узле разместили контактный вибромикрофон и датчик пульса PPG.

Для ИИ-задач предусмотрен отдельный процессор, а система VIO отслеживает движение в 6DoF. Очки следят за глазами, фиксируют зрачки, отслеживают руки в 3D. Устройства планируют выдавать исследователям позже в 2025 году, а демо покажет на конференции CVPR в июне этого года.
mashable.com

✔️ Anthropic создала специальные модели Claude Gov для нужд национальной безопасности США.

Anthropic разработала версии моделей Claude, предназначенных исключительно для правительственных структур, занимающихся вопросами национальной безопасности. Решение создано на основе обратной связи от госзаказчиков и прошло проверки на безопасность.

Модели оптимизированы для работы с секретными данными, лучше понимают документы из сферы разведки и обороны, анализируют киберугрозы и поддерживают редкие языки, важные для спецопераций. Использование ограничено закрытыми системами, где доступ к информации строго регламентирован.
anthropic.com

✔️ Higgsfield анонсировал инструмент для реалистичных видео с ИИ-аватарами.

Higgsfield представил Higgsfield Speak — платформу, которая превращает текст в видео с анимированными персонажами, передающими эмоции, жесты и движения. В отличие от обычного липсинка, новый инструмент использует 80 параметров движения и 40 визуальных эффектов, чтобы сделать анимацию похожей на «живую» съемку. Платформа подходит для подкастов, обучающих роликов или рекламных кампаний: пользователи выбирают стиль, аватар и сценарий — остальное система обрабатывает автоматически.

Продукт позиционируется как решение для креативщиков, которым нужно быстро создавать контент без камеры - от влогов до рекламных лендингов. Подписки Pro и Ultimate открывают доступ к инструментам, которые, по словам разработчиков, изменят подход к производству видео в ближайшее полугодие.
HiggsField AI в сети Х (ex-Twitter)

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
47👍33🔥14🥰4😁2🥱1
🌟 Google опенсорснул стек Deep Search.

Google выложил в открытый доступ на Github фуллстек-проект, который превращает пользовательские запросы в глубокие исследования с помощью Gemini. Его главная задача - находить информацию в интернете, анализировать ее и выдавать ответы с ссылками на источники, используя комбинацию React-интерфейса и бэкенда на базе LangGraph.

Проект включает в себя все необходимое: и фронтенд, и бэкенд.

🟢Фронтенд на React и он про взаимодействие с пользователем (принимает запросы и отображает результаты.)

🟢Бэкенд, на LangGraph, управляет «мозгом» системы: здесь работает агент, который генерирует поисковые запросы, анализирует результаты и решает, нужно ли уточнять данные.

Внутри бэкенда есть модуль, который отвечает за запуск цикла: сначала Gemini создает начальные запросы, затем система ищет информацию через API Google Search, оценивает, хватает ли данных, и при необходимости повторяет процесс.

Важная часть пайплайна — рефлексия. После каждого поиска агент проверяет, закрыты ли все «пробелы» в знаниях. Если информации недостаточно, он генерирует новые вопросы и повторяет цикл, пока не соберёт достаточно данных для ответа.

Проект адаптирован к продакшену, в нем используются Redis (для стриминга результатов в реальном времени) и PostgreSQL (для хранения истории диалогов и управления задачами). Это позволяет системе не терять прогресс даже при перезагрузках.

⚠️ Для практического использования потребуются API-ключи к Google Gemini и LangSmith.


📌Лицензирование: Apache 2.0 License.


🖥 GitHub


@ai_machinelearning_big_data

#AI #ML #DeepSearch #Google #Gemini #LangGraph
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
79👍41🔥22😁8
⚡️ Anthropic ограничила доступ Windsurf к моделям Claude.

Anthropic отключила Windsurf от прямого использования моделей Claude 3.5 и 3.7 Sonnet, объяснив это слухами о возможной покупке стартапа OpenAI.

По словам сооснователя Anthropic Джареда Каплана, компания хочет сосредоточиться на долгосрочных партнерствах, так как сейчас сталкивается с нехваткой вычислительных мощностей.

Windsurf, получавший доступ к Claude для разработки своих продуктов, теперь вынужден переходить на сторонние платформы, что может временно нарушить стабильность сервиса для пользователей.

В то же время Anthropic анонсировал сотрудничество с Cursor. Каплан подчеркнул, что фокус компании смещается с чат-ботов на «агентные» решения вроде Claude Code, которые, по его мнению, окажутся более полезными в будущем.

Источник: Techcrunch

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6334🔥15🤔10
2025/07/09 19:07:50
Back to Top
HTML Embed Code: