Telegram Web
Media is too big
VIEW IN TELEGRAM
✔️ Intel и SoftBank объединяются для создания альтернативы памяти HBM.

Intel и японский холдинг SoftBank запустили проект Saimemory, чтобы разработать замену памяти HBM на основе стековой DRAM. Технология обещает сократить энергопотребление на 50% по сравнению с HBM. Прототип планируют завершить к 2027 году, а массовое производство — до конца десятилетия.

Сейчас HBM, используемая в ИИ-чипах, дефицитна из-за сложности производства и высокого спроса. Samsung, SK Hynix и Micron остаются монополистами, но Saimemory намерена потеснить их, особенно в Японии. В отличие от конкурентов, которые увеличивают объем чипов, новый проект делает ставку на энергоэффективность.
asia.nikkei.com

✔️ ИИ обходит людей в кибербезопасности.

Палисейд Рисерч провела 2 масштабных турнира по защите информации, где ИИ-агенты соревновались с людьми. В формате CTF (Capture The Flag) AI и команды экспертов решали задачи от криптографии до поиска уязвимостей. Результаты: 4 ИИ-команды из 7 справились с 19 из 20 задач в первом этапе, обойдя большинство человеческих участников.

Во втором этапе, где задания требовали взаимодействия с внешними системами, лучший ИИ (CAI) решил 20 задач и вошел в топ-10% всех участников. Для задач, на решение которых лучшим человеческим командам требовалось около 78 минут, агенты ИИ имели 50-процентный показатель успеха. Другими словами, ИИ был способен решать задачи, которые представляли собой реальную проблему даже для экспертов.
Palisade Research в сети Х (ex-Twitter)

✔️ Крупнейшие музыкальные лейблы договариваются с Udio и Suno.

Universal, Warner и Sony начали активную фазу переговоров с Udio и Suno о лицензировании их огромных музыкальных каталогов. Цель - дать этим нейросетям законный доступ к трекам, чтобы те могли обучаться и создавать контент, не нарушая авторских прав.

Стороны пытаются создать работающую схему, как именно музыканты будут получать деньги, когда их стиль или работы используют для генерации ИИ-музыки. Сейчас это больной вопрос для индустрии.

Эти же переговоры, по логике, должны наконец-то решить и текущие судебные споры. Лейблы уже подали иски на Udio и Suno за якобы незаконное использование их музыки без разрешения. Если договорятся, тяжбы, скорее всего, снимут.
bloomberg.com

✔️ Macrocosmos AI запускает децентрализованную сеть для обучения ИИ на основе технологии «роя».

Стартап представил Subnet 9 в рамках блокчейн-сети Bittensor платформу для децентрализованного обучения ИИ, основанную на концепции «Swarm-тренировки». Вместо централизованной обработки данных на серверных фермах крупных компаний, проект позволяет любому пользователю с GPU, даже бюджетным, участвовать в тренировке моделей. Технология IOTA разбивает модель на слои, которые распределяются между участниками сети. Каждый «майнер» обрабатывает свой участок, а результаты синхронизируются при помощи алгоритмов сжатия данных и устойчивости к сбоям.

Главные проблемы децентрализации: медленный интернет и непостоянные участники решаются за счет компрессии трафика до 128 раз и системы честных выплат, оценивающих вклад каждого.
forbes.com

✔️ Имплантат для мозга Paradromics успешно испытан на человеке.

В середине мая хирурги временно ввели устройство Connexus в мозг пациента с эпилепсией во время операции в Университете Мичигана. Имплантат, размером меньше монеты, оснащен 420 микропинами, которые записывают сигналы отдельных нейронов. Устройство преобразует мысленные импульсы в текст или синтезированную речь — как у Neuralink. В отличие от поверхностных имплантов Precision Neuroscience или «сосудистого» подхода Synchron, Paradromics фиксирует активность конкретных нейронов.

Тест длился 10 минут: специалисты подтвердили, что электроды уловили мозговые импульсы. Следующий этап — клинические исследования с постоянной установкой импланта и увеличение скорости «перевода» мыслей в речь с текущих 60–80 слов в минуту до 130, как у естественной речи. Компания надеется в будущем использовать до 4 устройств одновременно.
wired.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7341🔥19🤝3🎄3
🌟 PlayDiffusion: инпейнт для речи.

Те, кто работает с синтезом речи, знают, что авторегрессионные трансформерные модели, хоть и хороши для генерации речи из текста с нуля, но создают кучу проблем, когда нужно редактирование. Стандартные методы, в виде полной перегенерации предложения, обходятся дорого по ресурсам и часто приводят к изменению интонации или ритма.

Замена отдельного слова обычно оставляет неприятные «склейки» на границах, а перегенерация с середины фразы может испортить уже существующую часть. Все это бьет по естественности и связности звучания.

PlayAI выпустила PlayDiffusion 1.0 – диффузионную модель для редактирования речи, которая умеет изменять нужные участки аудио, сохраняя при этом общую гладкость и характеристики голоса. Причем модель пригодна как для реальной речи, так и для аудио, сгенерированного другими TTS-моделями.

В PlayDiffusion аудиопоток кодируется в дискретное пространство, превращаясь в более компактную последовательность токенов. Затем, тот сегмент, который требует модификации маскируется.

После этого задействуется сама диффузионная модель. Она, опираясь на обновленный текстовый контент, «восстанавливает» замаскированную область, убирая шум. На выходе последовательность токенов снова преобразуется в полноценный звук с помощью декодера BigVGAN.

Чтобы добиться таких результатов, PlayAI взяли за основу текстовую трансформерную архитектуру и внесли несколько ключевых модификаций:

🟢Во-первых, это некаузальное маскирование, позволяющее модели одновременно учитывать прошлые, настоящие и будущие токены, в отличие от стандартных GPT-подобных моделей.

🟢Во-вторых, используется кастомный BPE-токенизатор всего на 10 000 текстовых токенов, что резко сокращает размер таблицы эмбеддингов и ускоряет вычисления.

🟢В-третьих, модель учитывает характеристики диктора с помощью предобученной эмбеддинг-модели, которая преобразует аудиозаписи переменной длины в векторы фиксированного размера.

Интересно, что если замаскировать вообще всю аудиодорожку, PlayDiffusion может работать как TTS. В отличие от авторегрессионных моделей, которые генерируют каждый токен последовательно, опираясь на предыдущие, диффузионные модели генерят все токены одновременно, а затем уточняют их за фиксированное число шагов.

Например, для генерации 20 секунд аудио кодеком на 50 Гц авторегрессионной модели потребуется 1000 шагов. PlayDiffusion же способен выдать все 1000 токенов сразу и уточнить их всего за 20 итераций – это до 50 раз эффективнее по количеству шагов генерации.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Модель
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #TTS #Inpainting #PlayDiffusion #PlayAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60🔥2221❤‍🔥3
🤖 В России создадут первую национальную методику оценки финансовых эффектов от искусственного интеллекта

📄 На заседании клуба «ИИ в финансовой отрасли» эксперты поставили перед собой задачу разработать первую в России методику оценки экономической эффективности внедрения технологий искусственного интеллекта. Предполагается, что она станет основой для обоснования инвестиций искусственного интеллекта, а также измерения его экономической ценности и масштабирования решений в реальных условиях.

💬 Подробнее о запуске клуба и его флагманском проекте рассказал Александр Ведяхин, Первый заместитель Председателя Правления Сбербанка, Председатель Наблюдательного совета Альянса в сфере ИИ:
«Запуск отраслевого клуба «ИИ в финансовой отрасли» под эгидой Альянса в сфере ИИ и Ассоциацией ФинТех — важный шаг на пути к технологическому развитию в ключевом секторе экономики. Его флагманским проектом станет разработка единой методологии оценки финансовых эффектов внедрения ИИ — стратегически значимая инициатива, которая задаст стандарты эффективности, обоснованности и масштабируемости технологических решений. <...> Вместе мы формируем будущее, где искусственный интеллект работает на благо экономики и общества всей страны».

Сам же проект совместными усилиями реализуют 17 компаний финансовой отрасли во главе с Альянсом в сфере ИИ и ассоциацией ФинТех: Сбербанк, Альфа-Банк, Яндекс, Т-Банк, MTS AI, ДОМ.РФ, Газпромбанк, ВТБ, Московская биржа, ВСК, Промсвязьбанк, Россельхозбанк, ОТП Банк, Московский кредитный банк, Райффайзенбанк.

✔️ Предварительно, результат работы клуба будет представлен в июне 2025 года на Петербургском международном экономическом форуме.

@ai_machinelearning_big_data

#news #ai
😁62❤‍🔥17👍1311🤣9🥱7🔥3👏1🤨1👻1
🚨 xAI привлекает $5 млрд через выпуск облигаций + $300 млн через продажу акций при оценке в $113 млрд

Компания Илона Маска xA
I проводит две крупные финансовые операции:

Выпуск долговых обязательств на $5 млрд и продажу акций на $300 млн .

Подробности:
🔹 Облигации ($5 млрд)

Выпуск организует Morgan Stanley.
Средства пойдут на общие корпоративные нужды — например, развитие технологий, инфраструктуры или покрытие издержек.

🔹 Продажа акций ($300 млн)

Это вторичная эмиссия — компания не выпускает новые акции, а позволяет сотрудникам продать свои доли инвесторам , получив ликвидность (то есть выручку за свой "старый" пакет).

🔹 Оценка компании — $113 млрд

Это почти в 3,5 раза выше внутренней стоимости X (бывшего Twitter), который был куплен за $33 млрд.

Маск делает ставку на финансовые рынки, чтобы ускорить развитие xAI — раньше, чем компания представит зрелые решения.

Такой агрессивный подход может быть рискованным, но типичен для амбициозных технологических проектов и самого Маска.

Посмотрим, сыграет ли ставка 🤑

https://www.reuters.com/business/musks-xai-seeks-113-billion-valuation-300-million-share-sale-ft-reports-2025-06-02/

@ai_machinelearning_big_data

#elonmusk #grok #xai
98👍45🔥25🗿9
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft запускает бесплатный видеогенератор.

Microsoft анонсировала Bing Video Creator, который превращает текстовые описания в короткие видео. Он основан на технологии Sora и доступен бесплатно через мобильное приложение Bing, а позже появится на десктопе и в Copilot Search. Пользователям нужно просто ввести запрос и ИИ сгенерирует 5-секундный ролик в вертикальном формате. (16:9 добавят позже).

За один запрос генерируется 3 видео, с выбором между быстрой и стандартной генерацией (первые 10 быстрых — бесплатно, далее за баллы Microsoft Rewards). Созданные видео будут храниться до 90 дней. Готовые ролики можно скачивать, делиться в соцсетях или по ссылке. Сервис стартует глобально, кроме Китая и России.
blogs.bing.com

✔️ Французский стартап H Company запустил сервис ИИ-агентов.

Стартап H представил три ИИ-агента: Runner, Surfer и Tester. Runner автоматизирует задачи: написание писем, и взаимодействует с приложениями. Бета-версия доступна бесплатно, но с ограничениями. Surfer — бесплатный инструмент для автономного серфинга в интернете. Tester (бета, платный) создан для тестирования сайтов: проверяет функционал меню, языковые настройки и валюту.

Стартап основан бывшими сотрудниками Google DeepMind год назад с инвестициями в €202 млн от Bernard Arnault, Amazon и Eric Schmidt.
H Company в сети X (ex-Twitter)

✔️ SketchAgent от MIT и Stanford рисует как человек по текстовому описанию.

MIT и Stanford создали SketchAgent, систему, которая превращает текстовые запросы в наброски, имитируя человеческий процесс рисования. Вместо обучения на базах данных, модель использует «язык рисования»: скетч разбивается на последовательность штрихов с пояснениями. Это позволяет генерировать эскизы предварительной тренировки.

Пока система не справляется с логотипами или сложными фигурами, а иногда интерпретирует планы рисования ошибочно. Ресерчеры планируют улучшить модель через синтетические данные и упростить интерфейс. В будущем инструмент может стать помощником в образовании или дизайне.
news.mit.edu

✔️ Firecrawl запускает endpoint API search для одновременного поиска и скрапинга данных.

Firecrawl прислушался к просьбам сообщества, которое давно просило функцию автоматизации с поиском. Теперь вместо двух этапов (сначала поиск, затем парсинг), все делается за раз. /search позиционируется как более простой и универсальный инструмент для работы с веб-данными. Использовать его можно через API, сторонние приложения или интерактивный Playground.

Сервис предлагает гибкую настройку: можно указать язык, регион, временной диапазон или формат вывода. Интеграция уже доступна в Zapier, n8n, MCP и других платформах, а в документации описаны примеры использования.

Команда также сообщила, что альфа-версии /llmstxt и /deep-research перестанут обновляться с 30 июня 2025 года, но останутся рабочими.
firecrawl.dev

✔️ TSMC запускает массовое производство 2-нм чипов.

Тайваньская фабрика вот-вот начнет выпуск 2-нм чипов, установив рекордный ценник — до $30 тыс. за пластину (а улучшенные версии подорожают до $45 тыс.). Это делает технологии доступными лишь для топовых клиентов AMD, Apple и MediaTek уже вложились: процессоры A20/A20 Pro для iPhone 18, M6 для Mac, новых серверов EPYC и флагманских смартфонов Mediatek 2025 года будут на этой архитектуре.

По данным поставщиков, мощности TSMC растут. К концу года выпуск достигнет 30 тыс. пластин в месяц. Эксперты отмечают: лидерство фабрики держится не на одном оборудовании, но еще и на опыте. Накопленные знания о производственных тонкостях трудно повторить.
ctee.com.tw

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
62👍33🔥15🥰5😢1
✔️ Llama Nemotron Nano VL от NVIDIA — один из лучших OCR инструментов для работы с документами.

Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.

📄 Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU

🔍 Заточена под:
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов

🧠 Под капотом — vision-энкодер C-RADIO v2 (distilled multi-teacher трансформер), который справляется даже с визуальным шумом и высоким разрешением.

📊 OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.

🟡Hf
🟡 Подробнее

@ai_machinelearning_big_data

#Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7022🔥12🥰8
✔️ Функционал облачной b2b-платформы MWS GPT серьезно расширен.

MWS GPT доступна в облаке с быстрым масштабированием и on-premise.

📄 Что дает платформа:
• Доступ к единой среде для сравнивания и тестирования моделей - в арсенале больше 40 LLM, включая Open Source
• Автоматизацию различных сценариев - за это отвечает поддержка мультиагентных архитектур в low-code-конструкторе
• ИИ-анализ объемных текстов и изображений благодаря RAG и Vision в ChatUI
• Создание голосовых ассистентов, а также обучение готовых языковых моделей под конкретные задачи благодаря FineTune

Последний инструмент пока доступен ограниченному числу пользователей, но скоро откроется для всех - следите за обновлениями.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭28👍1912🥰1
✔️ Holo1 — ИИ, который управляет веб-интерфейсами, как человек

Holo1 — новое семейство open-source моделей от H Company, созданных специально для понимания и автоматизации веб-интерфейсов.

Это Action VLM-модели, которые могут "видеть" сайт, распознавать кнопки, поля, меню и действовать, как реальный пользователь.

Доступно
Holo1-3B и Holo1-7B — последняя достигает 76.2% точности на UI-бенчмарках (лучший результат среди компактных моделей)
WebClick — датасет из 1 639 задач, имитирующих поведение человека в интерфейсе

💸 И главное:
Автоматизация реальных веб-задач (читать, кликать, вводить) с точностью 92.2% всего за $0.13 за задачу. Раньше за такую точность приходилось переплачивать в разы.

⚙️ Surfer-H — ИИ, который сам "читаeт", "думаeт", "кликаeт" и "проверяет"
Построен на базе Holo1 и работает прямо в браузере — никаких API и костылей.

Состоит из 3 модулей:
1. Policy — планирует поведение агента
2. Localizer — находит нужные элементы на экране
3. Validator — проверяет, всё ли сделано правильно

🔗 Hugging Face

@ai_machinelearning_big_dat

#Holo #web
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6932🔥23🤔7
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширила возможности ChatGPT для бизнеса.

ChatGPT для корпоративных пользователей теперь поддерживает интеграцию с Dropbox, Box, SharePoint, OneDrive и Google Drive, позволяя анализировать данные из корпоративных хранилищ в реальном времени.

Плюс, добавили функцию record mode - это запись встреч с автоматической генерацией заметок, таймкодами и выделением задач. Это как у Zoom и Notion, но с возможностью превращать темы обсуждений в структурированные документы в Canvas.

Для Deep Research стали доступны бета-коннекторы к HubSpot, Linear и инструментам Microsoft/Google. А еще Pro, Team и Enterprise пользователи получили доступ к MCP .
OpenAI в сети X (ex-Twitter)

✔️ Anthropic добавила новые функции в план Claude Pro.

Anthropic обновила подписку Claude Pro, добавив в нее несколько полезных функций для тех, кто работает с кодом. Подписчикам плана стал доступен Claude Code - инструмент для работы с небольшими проектами (до 1000 строк кода). Правда, лимиты остаются: около 10-40 запросов каждые 5 часов, а модель Opus 4 здесь не поддерживается.

Еще одна возможность - Claude-Squad. Он позволяет запускать несколько агентов одновременно. Интеграция с VS Code и Cursor уже есть, а Figma добавила официальный MCP-сервер, который активируется в настройках.
Anthropic в сети Х (ex-Twitter)

✔️ OpenAudio S1: синтез речи с эмоциями на 12 языках.

OpenAudio (создатели FishSpeech) представила TTS-модель S1, способную воссоздавать естественную речь с эмоциями и акцентами. Обученная на 2 млн часов аудио, она использует архитектуру Qwen3 с 4 млрд параметров, RLHF-оптимизацию и кодек, подобный Descript Audio Codec.

Модель поддерживает метки точного контроля: от злых интонаций до шепота или смеха. S1 работает на 12 языках, включая русский. Старшая модель (4B) доступна только как сервис по цене $0.8 за час синтеза, а S1-mini (0.5 млрд параметров) опубликована для некоммерческого использования на HuggingFace.
openaudio.com

✔️ DeepSeek обвиняют в использовании данных конкурентов для обучения своей модели.

Исследователи подозревают, что часть обучающих данных модели DeepSeek R1-0528 могла быть взята из инференса Google Gemini. Независимые эксперты заметили сходство в выборе слов и логике работы. Модель «думает» так же, как Gemini.

Ранее DeepSeek уже обвиняли в копировании данных OpenAI. Их предыдущая версия, V3, иногда выдавала себя за ChatGPT. Microsoft и OpenAI тогда заявили, что через API-аккаунты компании якобы утекали данные.

В ответ на утечки усилили защиту: Google и Anthropic теперь скрывают процесс размышлений своих моделей, чтобы затруднить копирование.
techcrunch.com

✔️ ИИ научили определять границы своих знаний.

MIT через стартап Themis AI решила ключевую проблему современных ИИ-систем: их неспособность честно признать, когда они не уверены в ответе. Платформа Capsa модифицирует любую ML-модель, выявляя ненадежные выводы. Она анализирует паттерны обработки данных, сигнализирующие о неоднозначности, неполноте информации или скрытых смещениях.

Capsa может показать, основан ли прогноз на реальных данных или это чистая спекуляция модели. Так же она помогает большим языковым моделям "самоотчитываться" о своей уверенности в каждом ответе, отсеивая "галлюцинации".

Технология уже тестируется в телекоме, нефтегазе и фарме.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
62👍37🔥14🥰4👌1
✔️ Cursor 1.0 — стабильный релиз с полезными фичами

Новая стабильная версия Cursor, и в ней появилось много обновлений, которые делают работу с кодом удобнее.

Вот что стоит отметить:

🐞 Bugbot
Автоматически проверяет Pull Request'ы на баги и предлагает исправления.
Можно внести правку прямо в редакторе — в один клик.

🧠 Memory (beta)
Cursor теперь запоминает контекст проекта, что помогает при командной работе и упрощает навигацию по коду.

⚙️ One-Click MCP Setup
Настройка подключения к Model Context Protocol — теперь через одну кнопку, без ручной конфигурации.

📌 Дополнительно в 1.0:
• Возможность редактировать несколько мест в коде одновременно
• Поддержка таблиц, Markdown и диаграмм Mermaid в чате
• Обновлённые настройки и админ-панель
• Фоновая работа агентов — можно интегрировать их со Slack и Jupyter Notebooks

Cursor постепенно становится более удобной средой для совместной работы с ИИ-помощником.

https://www.cursor.com/changelog

@ai_machinelearning_big_data

#CursorAI #AIcoding #DevTools #Jupyter #CodeAssistant
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
172🔥29👍19🤬3👀3🥰1
🌟 Microsoft GUI-Actor: взаимодействие ИИ с GUI без использования координат.

GUI-Actor — методика на базе VLM, которая вместо традиционной генерации координат текстом при визуальной обработке интерфейса использует внимание внутри модели.

Чтобы уйти от координатного подхода, в GUI-Actor используется специальный токен <ACTOR>, который "учится" связываться с визуальными патчами, соответствующими целевой области экрана. За один проход модель может запомнить сразу несколько кандидатов на действие.

Например, все кнопки "Сохранить" в сложном интерфейсе. Это очень похоже на человеческое восприятие: видеть сам элемент, а не его позиции по осям Х и Y.


Выбрать наиболее подходящий вариант из элементов-кандидатов помогает "верификатор". Это отдельная модель, оценивающая кандидатов от <ACTOR> и отбирающая самый подходящий для действия. Она не только улучшает точность, но и универсальна: ее можно подключить к другим моделям.

Обучение требует минимум ресурсов. Можно заморозить основную VLM (Qwen2-VL-7B) и дообучить только новый action head и токены. Это всего ~100М параметров для 7B-модели.

Комбинация из такого быстрого обучения + верификатор почти догоняет полноценно обученные аналоги, сохраняя общие способности базовой модели. Никакого "катастрофического забывания" - агент учится кликать интерфейсы, не разучиваясь описывать картинки.

Результаты тестов на сложном бенчмарке ScreenSpot-Pro с высоким разрешением и незнакомыми интерфейсами (CAD, научный софт) GUI-Actor-7B с Qwen2-VL показал 40.7 балла, а с Qwen2.5-VL — 44.6, обойдя даже UI-TARS-72B (38.1).

На других тестах (ScreenSpot, ScreenSpot-v2) он тоже лидирует, особенно в иконках и текстовых элементах, демонстрируя крутую адаптацию к разным разрешениям и версткам.

▶️В открытый доступ опубликованы веса моделей:

🟢GUI-Actor-7B-Qwen2-VL;
🟢GUI-Actor-2B-Qwen2-VL;
🟠GUI-Actor-Verifier-2B.

В планах - выпуск еще двух моделей на основе Qwen2.5-VL (3B и 7B), демо GUI-Actor, код для модели-верификатора и датасеты для обучения.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #GUIActor #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4920🔥15🥰2
Reddit подаёт в суд на Anthropic за незаконное использование данных

Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.

Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"

📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”

😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?

Судебная битва за контент только начинается.

https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd

@ai_machinelearning_big_data

#reddit #Anthropic #ai #claude
🔥77👍3219😁10👏7🤬7🤣6🗿5
⚡️Релиз Qwen3-Embedding и Qwen3-Reranker

Главное:
Модели на 0.6B, 4B и 8B параметров
Поддержка 119 языков
Sota на MMTEB, MTEB и MTEB-Code
Открытый код на Hugging Face, GitHub и ModelScope
Доступ через API на Alibaba Cloud

🔍 Применение:
Поиск документов, RAG, классификация, поиск кода и др.

🟡 Qwen3-Embedding: https://huggingface.co/collections/Qwen/qwen3-embedding-6841b2055b99c44d9a4c371f
🟡Qwen3-Reranker: https://huggingface.co/collections/Qwen/qwen3-reranker-6841b22d0192d7ade9cdefea
🟡GitHub: https://github.com/QwenLM/Qwen3-Embedding
🟡Modelscope: https://modelscope.cn/organization/qwen

@ai_machinelearning_big_data

#qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
64👍31🔥19🥰5❤‍🔥2
2025/07/12 22:53:14
Back to Top
HTML Embed Code: