Intel планирует оснастить будущие ускорители Gaudi памятью HBM4 и уже договорилась о сотрудничестве с SK hynix — одним из лидеров рынка высокоскоростной памяти. Об этом заявил вице-президент SK hynix на мероприятии Intel AI Summit.
Сейчас Gaudi 3 работает с HBM2E, но следующая линейка — под кодовым названием Jaguar Shores — может уже получить чипы HBM4. SK hynix пока уклоняется от прямого подтверждения, но переговоры идут, и стороны уже обсуждают технические детали.
Выгодно это и корейцам: Intel может помочь с производством базовых кристаллов HBM4 на своих фабриках. Ранее ходили слухи, что для этого SK hynix может также обратиться к TSMC с её 3-нм техпроцессом. HBM4 станет обязательной фишкой для всех крупных игроков: AMD готовит Instinct MI400, Nvidia — Rubin. Intel явно не хочет отставать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft начала вторую волну массовых увольнений за год — около 4 % сотрудников, или примерно 9 000 человек, уже под сокращением. Причина та же, что и у всех в 2024: деньги нужны на ИИ.
Сильнее всего пострадает игровое подразделение, но и остальные не обошли стороной — режут по всем уровням, регионам и департаментам. Компания говорит, что это часть оптимизации и «адаптации к динамичному рынку». В мае уже было -6 000 сотрудников, в основном инженеров. Всего в Microsoft работает порядка 228 000 человек.
Сокращения проходят на фоне роста затрат на ИИ-инфраструктуру — от обучения моделей до постройки дата-центров. Аналитики считают, что так Microsoft частично компенсирует эти расходы и ускоряет переход на внутренние ИИ-инструменты.
ИИ развивается, а люди — по домам.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
За первые полгода 2025-го в России утекли персональные данные 39 миллионов человек. И всё это — в результате всего 35 инцидентов. В среднем — по миллиону записей за раз. Роскомнадзор подтверждает: масштаб как у крупных маркетинговых рассылок, только вот без согласия пользователей.
С 30 мая вступил в силу закон, увеличивающий штрафы за подобные косяки — от 3 до 20 млн ₽. Шесть дел уже в судах, кому-то выписали предупреждения, кому-то — штраф. Хотя «предупреждение» за миллионы слитых данных звучит примерно как «пальчиком погрозили серверу».
Please open Telegram to view this post
VIEW IN TELEGRAM
Intel собирается отказаться от своего топового техпроцесса 18A (1,8 нм), не доведя его даже до массового производства. Новый CEO, Лип-Бу Тан, предложил сразу прыгнуть на 14A (1,4 нм), минуя «неприбыльную» стадию. Если совет директоров одобрит эту идею — миллиарды инвестиций в 18A отправятся прямиком в утиль.
18A был представлен в 2024-м при прежнем главе Intel — Пэте Гелсингере. Тогда это казалось шагом к реальному лидерству, но сейчас ни одного реально работающего 1,8-нм чипа на рынке нет. Даже у TSMC пока максимум — 3 нм. Intel же по факту остаётся на уровне 10 нм.
Отказ от 18A — часть общей стратегии Тана по сокращению расходов. Компания в 2024-м показала рекордный убыток в $18,8 млрд и теперь, похоже, просто спасает то, что ещё можно. Но маркетинговый прыжок через ступень может обойтись Intel ещё дороже — в сотни миллионов или даже миллиарды.
Похоже, Intel решили, что лучше быть первыми на бумаге, чем последним в кремнии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Американские госструктуры попались на подмену — вместо настоящего Signal использовали TM SGNL от TeleMessage. Приложение позиционировали как безопасный корпоративный мессенджер с возможностью архивирования, но оказалось, что шифрование там не сквозное, а уязвимостей — хоть экспортируй.
CISA срочно включила TM SGNL в каталог эксплуатируемых уязвимостей. Через
/heapdump
можно было вытащить дамп памяти (CVE-2025-48927), а при локальном доступе — достать чувствительные данные и пароли (CVE-2025-48928). Метаданные и переписка минимум 60 госслужащих уже утекли, включая сотрудника Белого дома и представителей Секретной службы.Скандал всплыл после инцидента «Signalgate» — когда советник по нацбезопасности случайно добавил журналиста в якобы Signal-чат по военной операции. Позже выяснилось: это был TM SGNL — и вся переписка, похоже, не только не удалилась, но и осталась у кого-то третьего.
Please open Telegram to view this post
VIEW IN TELEGRAM
Специалист из Capco предложил шести топовым ИИ назвать число от 1 до 50. И всё бы ничего, но почти все — ChatGPT, Claude, Gemini, LLaMA и другие — выдали один и тот же ответ: 27. Лишь Grok от xAI решил выделиться и выбрал «42» — классика для фанатов «Автостопом по Галактике».
Почему так? Модели не используют настоящий рандом. У них нет доступа к генераторам случайных чисел — они выбирают на основе вероятностей, «температуры» ответа и обучающих данных. Число 27, по мнению моделей, достаточно «естественное»: не в центре, не край, не слишком круглое.
В других тестах ИИ в диапазоне 1–10 часто выбирали 7, а в 1–100 — 37, 47 или 73. Вопрос «орёл или решка» тоже в тупике — ИИ не может честно подбросить монетку.
Так что если вам кажется, что ИИ «угадывает», — он просто статистически уверен в своих предпочтениях.
Please open Telegram to view this post
VIEW IN TELEGRAM
Обнаружена критическая уязвимость в утилите
sudo
(CVE-2025-32463), которая позволяет любому пользователю получить права root, даже если он не прописан в sudoers
. Проблема уже подтверждена на Ubuntu 24.04 и Fedora 41.Уязвимость связана с тем, как
sudo
работает в chroot-среде с опцией -R
. Пользователь может подменить nsswitch.conf
в своём каталоге и подсунуть туда вредоносную библиотеку, которую система загрузит до сброса привилегий. Всё — shell с правами root в кармане. Уязвимы версии с 1.8.33 по 1.9.17.Проблема устранена в sudo 1.9.17p1. Апдейт уже выкатывают в дистрибутивах — проверь, доступен ли он у тебя.
Бонусом закрыли ещё одну дыру (CVE-2025-32462), через которую можно было обходить ограничения по хосту, если в
sudoers
настроен параметр host
, отличный от ALL
.Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ может в 5 раз повысить риск глобальной пандемии — к такому выводу пришли исследователи Rand Corporation по заказу DARPA. В докладе описаны сценарии, где генеративные ИИ упрощают разработку и распространение опасных патогенов.
LLM, вроде ChatGPT, потенциально способны помогать злоумышленникам: от выбора вируса до синтеза ДНК и разработки путей доставки. Даже при минимальной подготовке злоумышленники, имея доступ к ИИ с открытым API, получали пошаговые инструкции, включая схемы создания вирусов вроде оспы.
Особо тревожит не только биотерроризм, но и случайные утечки — лаборатории, использующие ИИ для ускорения науки, могут нечаянно выпустить патоген с «прокачанными» характеристиками заразности и устойчивости. Без регулирования такие технологии могут выйти из-под контроля.
Авторы доклада предлагают вводить фильтры на биоопасный контент, ограничивать доступ к чувствительной информации в LLM и усилить аудит ИИ в науке.
Please open Telegram to view this post
VIEW IN TELEGRAM
В популярном WordPress-плагине Forminator нашли опасную уязвимость (CVE-2025-6463, 8.8 балла по CVSS), позволяющую без авторизации удалять любые файлы с сервера. Уязвимы все версии до 1.44.2 включительно.
Эксплойт прост: при отправке формы можно подменить путь до загруженного файла и указать, например,
wp-config.php
. Если админ удалит такую запись — вручную или автоматически — плагин послушно сотрёт конфигурационный файл, после чего сайт снова перейдёт в режим установки. А дальше злоумышленник может подключить сайт к своей базе и получить полный контроль.Уязвимость нашёл исследователь Phat RiO — BlueRock и получил за находку $8100. 30 июня вышел фикс — версия 1.44.3. Там добавили валидацию путей и типов полей, теперь удалять файлы можно только из папки загрузок.
Плагин до сих пор активен на 600 000+ сайтах. Обновились только ~200 000 установок, остальные рискуют проснуться с «чистым» WordPress и чужой БД.
Please open Telegram to view this post
VIEW IN TELEGRAM
Эксперты Infra-Analytics и TeleGeography предупредили: миру может не хватить судов для ремонта подводных кабелей. К 2040 году объем кабельной инфраструктуры вырастет в разы, а количество доступных сервисных кораблей — наоборот, просядет. Некоторые суда уже сейчас доживают 40-летний срок службы, а новые почти не строят.
По прогнозам, потребуется заменить минимум 15 судов до 2040 года, из них 5 — уже в ближайшие 5 лет. Особенно остро проблема будет ощущаться в юго-западной части Тихого океана. Там — аномально высокий спрос на ремонт, а флота почти нет. Общий счёт за замену и расширение — около $3 млрд.
Инвесторы не торопятся вкладываться: рынок нестабилен, контракты невыгодные, проще купить б/у судно и молиться. В это время корпорации вроде Meta* и Google тянут десятки тысяч км новых кабелей. Только у Meta* план — 40 000 км кабеля вокруг половины земного шара для себя любимой.
Если ничего не поменяется, вместо «упал DNS» будет «сломался кабель, судно не доплыло».
*признана экстремистской организацией, её деятельность в России запрещена
Please open Telegram to view this post
VIEW IN TELEGRAM
Американские учёные представили RisingAttacK — метод, способный обмануть даже топовые модели компьютерного зрения. С его помощью можно заставить ИИ *не замечать* объекты на фото, хотя человек всё увидит без проблем. Машина, например, «не узнает» машину. И это не баг — это фича атаки.
Техника работает тонко: она слегка искажает ключевые признаки изображения, важные именно для нейросети, но делает это настолько незаметно, что глазами отличить невозможно. Проверяли на ResNet-50, DenseNet-121, ViT-B и DEiT-B — взлом прошёл успешно на всех.
Опасность очевидна. Автопилот не увидит пешехода. Камера в больнице поставит неверный диагноз. И да, это уже не sci-fi, а реальный proof-of-concept. Исследователи говорят: хотели найти уязвимость — и нашли. Теперь думают, как её закрыть.
Please open Telegram to view this post
VIEW IN TELEGRAM
Исследователи из Helmholtz Munich представили Centaur — языковую модель, обученную не просто повторять человеческое поведение, а понимать, как мы принимаем решения. Модель названа в честь кентавра: наполовину ИИ, наполовину — ты с утра понедельника.
Centaur натренировали на 10+ миллионах решений из 160 психологических экспериментов. Она предсказывает не только выбор, но и время, за которое человек к нему придёт — с эмоциями, сомнениями и всеми этими «а вдруг».
Главное отличие от обычных моделей: Centaur может работать в незнакомых контекстах, без жёстких правил. Вместо угадайки — генерализация стратегий мышления. Это открывает новые возможности для психологии, медицины, социологии и даже госуправления. Да, звучит страшно.
Особый интерес — в области клиники: модель может симулировать мышление людей с депрессией, тревожностью и другим ментальным грузом. Врачи смогут лучше понять пациентов — без чтения мыслей, но близко.
Код модели будет открыт, локален и прозрачен. Так что Big Brother отдыхает, а ты сможешь сам проверить, как работает искусственный кентавр в голове.
Please open Telegram to view this post
VIEW IN TELEGRAM
Несмотря на давление от 100+ IT-компаний, включая Alphabet, Meta* и Mistral AI, Еврокомиссия отказалась тормозить запуск AI Act — первого в мире комплексного закона об ИИ. Полный ввод в действие ожидается к 2026 году, но внедрение уже идёт.
Закон классифицирует ИИ-системы по уровням риска. Под запретом окажутся практики вроде манипуляции поведением и «социального рейтинга». Высокорисковые решения (например, биометрия и ИИ в найме) должны пройти регистрацию, аудит и соответствовать требованиям прозрачности и управления рисками.
Легче всего будет чат-ботам и прочим «низкорисковым» системам — от них потребуют разве что пометки «Вы общаетесь с ИИ».
Томас Регье из Еврокомиссии заявил: «никакой остановки, никакой паузы». Бизнесу придётся либо адаптироваться, либо искать выходы за пределами ЕС.
*Компания Meta признана в России экстремистской и запрещена
👍 — Надо регулировать, пока не поздно
🤷 — ЕС душит инновации своими нормами
Please open Telegram to view this post
VIEW IN TELEGRAM
xAI Илона Маска наконец получила «добро» на запуск 15 газовых турбин для питания своего ИИ-суперкомпьютера Colossus в Мемфисе. Но на спутниковых снимках по-прежнему видно 24 установки — и это после того, как раньше их было аж 35.
Местные активисты и юристы бьют тревогу: часть оборудования до сих пор работает без системы контроля выбросов (BACT), что нарушает «Закон о чистом воздухе». Более того, регион уже страдает от повышенного уровня астмы и рака — в 4 раза выше среднего по США.
До 1 сентября xAI обязали установить BACT, а до конца года — отчитаться о каждой турбине: сколько часов работала, сколько раз запускалась, насколько дымно было. Разрешение действительно до 2027 года, но нарушать условия — себе дороже. Компания планирует второй ЦОД, но не раскрывает, как будет его питать. Намекают на 1,56-ГВт газовую ТЭС. Интересно, в ней тоже будет «немножко лишнего»?
Please open Telegram to view this post
VIEW IN TELEGRAM
После июньского обновления Windows 11 (24H2) пользователи начали замечать странные ошибки в Event Viewer — "Event 2042", "Config Read Failed", "More data is available". Всё это связано с брандмауэром Windows, но Microsoft уверяет: можно не волноваться.
Проблема вызвана экспериментальной функцией, которую пока не успели нормально встроить в систему. Ошибки появляются только в свежей версии Windows 11 и не влияют на безопасность или работу ОС. Чинить самому ничего не нужно, Microsoft уже разбирается.
За последние месяцы это не первый такой случай. Весной BitLocker ругался без причины, а WinRE выбрасывал ошибку 0x80070643. Видимо, Microsoft тестирует на нас не только ИИ, но и терпение.
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft начала вычищать PowerShell 2.0 из Windows 11 — сначала из инсайдерских сборок, а потом и из стабильных релизов. Поддержка этого ветерана командной строки тянулась с времён Windows 7, но даже в 2025 году он всё ещё находился в системе — ради обратной совместимости.
Версию признали устаревшей ещё в 2017-м, но ряд корпоративных решений, включая некоторые редакции SQL Server, продолжал на неё опираться. Теперь в Redmond решили: хватит. Без точных сроков, но с чётким намерением — удалить PowerShell 2.0 полностью.
Сейчас по умолчанию используется PowerShell 5.1, а для продвинутых задач — PowerShell 7.x, работающий на Windows, Linux и macOS. Он безопаснее, мощнее и уже давно всем доступен. Удаление старой версии снизит риски атак и упростит жизнь админам. Ну, почти всем.
👍 — Всё правильно, пора двигаться дальше
Please open Telegram to view this post
VIEW IN TELEGRAM
Hitachi Energy, крупнейший производитель трансформаторов, бьёт тревогу: ЦОД, обучающие ИИ, создают бешеные скачки потребления энергии, с которыми не справляется электросеть. Ни одна другая отрасль, по словам компании, не ведёт себя так нестабильно.
Когда запускается обучение, потребление может вырасти в 10 раз буквально за секунды. При этом возобновляемые источники энергии, сами по себе непостоянные, делают ситуацию ещё более хаотичной. В некоторых странах — например, в Ирландии и Нидерландах — из-за этого уже начали ограничивать строительство новых ЦОД.
Hitachi призывает разработать систему раннего оповещения для коммунальных служб и ограничивать пик мощности при обучении моделей. Альтернатива — масштабный коллапс энергосистем. К слову, трансформаторов уже не хватает: портфель заказов у Hitachi вырос с $14 до $43 млрд за три года. Строить новые мощности мешает даже нехватка рабочих, способных уложить пол под трансформатор весом в 300 тонн.
Please open Telegram to view this post
VIEW IN TELEGRAM