Бомбезные новости: NVIDIA добавили нативную поддержку Python в CUDA!
Это значит, что код для GPU теперь можно писать сразу на Python, а не учить параллельно C++ или Fortran.
Что важно: это не перевод синтаксиса C на Python. Все будет работать так, как привыкли разработчики.
Сразу из интересного:
— Появилась библиотека cuPyNumeric: NumPy-совместимая штука, но всё летит на GPU. Почти без изменений в коде, зато x50 ускорение для массивов.
— CUDA Core переосмыслили для Python: теперь без миллиона зависимостей и танцев с .cu-файлами. Всё завязано на JIT-компиляции и нативной интеграции в CPython. Пишешь как на Python — работает как C++ (почти).
— Модель параллелизма CuTile — вместо ручной работы с потоками и блоками (как в C++), теперь можно просто оперировать «плитками» данных.
— Инструменты для профилирования и анализа GPU-кода на Python — прямо внутри среды. Можешь смотреть, как работает каждое ядро, какие данные тормозят, и где ты налажал.
— Zero-copy memory: массивы могут жить одновременно и в CPU, и в GPU-памяти, и не дублируются.
— Легко подключать кастомные ядра в PyTorch — не надо писать C++ Extensions, можно просто на Python + cuModule. Всё работает с автоградом.
— CUDA Python SDK — теперь официальный. Поддержка IDE, Jupyter, VSCode.
Это значит, что код для GPU теперь можно писать сразу на Python, а не учить параллельно C++ или Fortran.
Что важно: это не перевод синтаксиса C на Python. Все будет работать так, как привыкли разработчики.
Сразу из интересного:
— Появилась библиотека cuPyNumeric: NumPy-совместимая штука, но всё летит на GPU. Почти без изменений в коде, зато x50 ускорение для массивов.
— CUDA Core переосмыслили для Python: теперь без миллиона зависимостей и танцев с .cu-файлами. Всё завязано на JIT-компиляции и нативной интеграции в CPython. Пишешь как на Python — работает как C++ (почти).
— Модель параллелизма CuTile — вместо ручной работы с потоками и блоками (как в C++), теперь можно просто оперировать «плитками» данных.
— Инструменты для профилирования и анализа GPU-кода на Python — прямо внутри среды. Можешь смотреть, как работает каждое ядро, какие данные тормозят, и где ты налажал.
— Zero-copy memory: массивы могут жить одновременно и в CPU, и в GPU-памяти, и не дублируются.
— Легко подключать кастомные ядра в PyTorch — не надо писать C++ Extensions, можно просто на Python + cuModule. Всё работает с автоградом.
— CUDA Python SDK — теперь официальный. Поддержка IDE, Jupyter, VSCode.
🔥197👍27❤24🌚17😁5👨💻3🫡1
Please open Telegram to view this post
VIEW IN TELEGRAM
4😁561❤73👍36🔥11🌚4👨💻4🫡3
Forwarded from XOR
Представьте, что у вас НАСТОЛЬКО плохой продукт, что ex-сотрудники в резюме говорят, что они не имели к нему никакого отношения. А вот Цукербергу и представлять не надо.
Llama 4 недавно попала в скандал из-за подтасованных результатов тестов. Модель, кстати, сейчас на 32 месте на LMArena.
@xor_journal
Llama 4 недавно попала в скандал из-за подтасованных результатов тестов. Модель, кстати, сейчас на 32 месте на LMArena.
@xor_journal
😁129👍10❤8🌚6👨💻1
Сделаем PYTHON снова ВЕЛИКИМ — какие-то ГЕНИИ запилили БИБЛИОТЕКУ Tariff, которая УВЕЛИЧИВАЕТ время импорта модуля в зависимости от вашей процентной ставки 😂
pip install tariff
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁179🌚98👨💻11👍4❤1🔥1
OpenAI выпустили новую модель GPT-4.1 и она прекрасная.
По бенчам это первая модель без цепочки рассуждений, которая кодит +- на уровне с гигантом o3-mini. По идее, эта модель должна заменить собой старичка GPT-4.
Самое крутое — наконец-то МИЛЛИОН токенов контекстного окна, догнали Gemini спустя год.
А теперь гигантский НЮАНС — модель выпускают только в API для разработчиков, в чате её не будет (по крайней мере пока), расходимся😔
Зато можно бесплатно попробовать в Windsurf.
По бенчам это первая модель без цепочки рассуждений, которая кодит +- на уровне с гигантом o3-mini. По идее, эта модель должна заменить собой старичка GPT-4.
Самое крутое — наконец-то МИЛЛИОН токенов контекстного окна, догнали Gemini спустя год.
А теперь гигантский НЮАНС — модель выпускают только в API для разработчиков, в чате её не будет (по крайней мере пока), расходимся
Зато можно бесплатно попробовать в Windsurf.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤59🌚23👍13
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚88😁35👍26❤6🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁393👍86🔥36🌚9❤7👨💻6🫡1
Там NVIDIA выпустили новые бюджетные карточки RTX 5060 — выглядит сочно.
В линейке:
В игрушка себя показывают хорошо:
5060 Ti на 16 Гб выглядит сочно даже для нейросетей, жду👌
В линейке:
— RTX 5060 Ti на 16 Гб. В продаже с 16 апреля за 429 баксов (~35 000 рублей);
— RTX 5060 Ti на 8 Гб. В продаже с 16 апреля за 379 баксов (~31 000 рублей);
— RTX 5060 на 8 Гб. В продаже с мая за 299 баксов (~24 500 рублей).
В игрушка себя показывают хорошо:
Half-Life 2 RTX — 130fps
Hogwarts Legacy — 234fps
Alan Wake II — 114fps
Black Myth: Wukong — 130fps
Cyberpunk 2077 — 148fps
Stalker 2 — 208fps
Star Wars Outlaws — 105fps
Marvel Rivals — 330fps
Avowed — 220fps
5060 Ti на 16 Гб выглядит сочно даже для нейросетей, жду
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥104😁27👍16❤8👨💻4
Please open Telegram to view this post
VIEW IN TELEGRAM
😁268🌚22👍17❤6🔥5