Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
2828 - Telegram Web
Telegram Web
https://social.treehouse.systems/@cas/114171610700263367

https://codeberg.org/calebccff/6502.sh

"I'm proud to announce 6502.sh, because the world needs another 6502 emulator!

6502.sh is about 3k lines of busybox ash compatible shell script, it provides an emulated ACIA serial port and is capable of running BASIC

It has an integrated interactive debugger, with breakpoints, single stepping, and a myriad of other features"

Благородное безумие, мы тут такое любим.

Приятный shell код, да еще и с комментариями!
❤‍🔥12😎53👍3🔥1🤯1🤮1💩1
commit -m "better"
"I’m resigning as lead of the Asahi Linux project, effective immediately. The project will continue on without me, and I’m working with the rest of the team to handle transfer of responsibilities and administrative credentials. My personal Patreon will be paused, and those who supported me personally are encouraged to transfer their support to the Asahi Linux OpenCollective (GitHub Sponsors does not allow me to unilaterally pause payments, but my sponsors will be notified of this change so they can manually cancel their sponsorship)"
https://www.phoronix.com/news/Asahi-Lina-Steps-Down-Linux-GPU

"Following Hector Martin stepping down from the Asahi Linux project that he founded for bringing Linux to Apple Silicon hardware, Asahi Lina announced today that she is pausing work on all of the Apple GPU driver development she had been pursuing for Asahi Linux with the open-source DRM kernel driver as well as Mesa contributions"

#asahi

UPD: в первый раз в жизни вижу, что Миша с фороникса закрыл обсуждение темы - https://www.phoronix.com/forums/node/1534870
😢19🤡7🍾5😁3🎉3😍1🐳1
Опубликованы результаты оценки влияния на производительность пересборки пакетов для Ubuntu с различными опциями и реализациями функций выделения памяти. Экспериментатору удалось на 90% (в 1.9 раза) повысить производительность пакета jq с инструментарием для обработки данных в формате JSON, путём обычной пересборки из того же пакета с исходным кодом, без внесения изменений в сам код. Производительность оценивалась через измерение времени выполнения типового фильтрующего запроса над данными GeoJSON, размером 500МБ.

Итоги эксперимента:

- Вариант, собранный в GCC из тех же исходных текстов с флагами по умолчанию оказался быстрее бинарного пакета Ubuntu на 2-4%.

- Пересборка в Clang 18 с уровнем оптимизации"-O3", включением оптимизации на этапе связывания ("-flto") и отключением отладочной информации ("-DNDEBUG") привела к ускорению на 20%.

- Пересборка с системой распределения памяти TCMalloc (добавление "-L/usr/lib/x86_64-linux-gnu -ltcmalloc_minimal" в LDFLAGS) привела к ускорению на 40%.

- Замена функций malloc на системы распределения памяти tcmalloc, jemalloc и mimalloc через "LD_PRELOAD=/usr/lib/x86_64-linux-gnu/lib....so" привела к увеличению производительности на 27%, 29% и 44%. При запуске с mimalloc, показавшем ускорение на 44%, выставлялась переменная окружения "MIMALLOC_LARGE_OS_PAGES=1".

- Пересборка пакета с mimalloc в LDFLAGS вместо связывания через LD_PRELOAD привела к ускорению прохождения теста на 90%. Другой тест по обработке 2.2GB JSON-данных в 13000 файлах также показал прирост производительности примерно в два раза.

Производительность Ubuntu-пакета jq удалось увеличить в 1.9 раза путём пересборки
https://www.opennet.ru/opennews/art.shtml?num=62912

Оригинальный пост
Make Ubuntu packages 90% faster by rebuilding them
https://gist.github.com/jwbee/7e8b27e298de8bbbf8abfa4c232db097

Открытка @itpgchannel и его приключениям с malloc 🌝
👍13🤡42🔥2🤮2
https://gitlab.xiph.org/xiph/ogg/-/merge_requests/11#note_57404

"A 3 year old MR, to fix a 14 year old bug, now arguing about using a 26 year old language, in a project that hasn't had a release in 5 years. Forget about it. Please don't merge this, I don't want my name associated with this project"

Open source, который мы заслужили!

(спасибо нашим радиослушателям за ссылку!)
😁27🤡15😢5🤣3🤯2😱2😐2🤮1🖕1
commit -m "better"
#gccrs, в очередной раз, пытаются объяснить, зачем они нужны, когда есть rustc, #mrustc, и rustc_codegen_gcc.

И, в очередной раз, у них это получается плохо. Потому что они не нужны (не решают существующих задач).
https://www.phoronix.com/news/More-Rust-Merged-GCC-15.1

145 патчей от #gccrs!

В этот раз они решили, что таргетировать будут ажно 1.49 версию.

Напомню, что мою любимый #mrustc https://github.com/thepowersgang/mrustc умеет уже в 1.74, практически, в одно (мотивированное) рыло!

Да, да, я понимаю, что у gccrs задача чуть сложнее - им надо запилить настоящий borrow checker, но, тем не менее, состояние проекта кажется странным.
😢5👍4🤡3🤮21🤔1💩1🐳1
Forwarded from Запястье Пумы (Арагорн)
👍29😁21🔥43🤡1
😁13🔥4🗿32👍1
Проблемы возникают из-за того, что подобные ИИ-индексаторы действуют агрессивно, собирают информацию в несколько потоков и не учитывают правила доступа к контенту, заданные на сайтах через файл robots.txt. Проблему усугубляет то, что разработками в области машинного обучения занимаются большое число разных компаний по всему миру, которые пытаются собирать как можно больше данных в меру своих возможностей. Каждая компания запускает свой индексатор и все вместе они создают огромную паразитную нагрузку на элементы инфраструктуры.

После начала блокировки подобного трафика, некоторые индексаторы начали притворяться типовыми браузерами для обхода фильтрации по идентификатору User Agent и использовать распределённые сети, охватывающие большое число хостов, для преодоления ограничений интенсивности обращений с одного IP. Наиболее сильно из-за активности ИИ-индексаторов страдают инфраструктуры открытых проектов, использующих собственные хостинги Git-репозиториев, форумы и Wiki, которые изначально не были рассчитаны на обработку высокой нагрузки.

Проблемы возникли у платформы совместной разработки SourceHut, развиваемой Дрю ДеВолтом (Drew DeVault), автором пользовательского окружения Sway. Дрю сетует на то, что в очередной раз вместо того, чтобы заниматься развитием платформы ему приходится тратить большую часть своего времени на разгребание неожиданно возникших проблем.
. . .
Другие проекты, обратившие внимание на проблему:

- Из-за высокой нагрузки на инфраструктуру для противостояния ИИ-индексаторам разработчики GNOME внедрили систему защиты от ботов Anubis, допускающую вход только после вычисления хэша sha256 (proof-of-work). При открытии страниц в GitLab GNOME теперь появляется характерная аниме-заставка, которая у некоторых пользователей приводит к минутной задержке загрузки страниц. За два с половиной часа тестирования только 3% запросов прошили проверку в Anubis, а 97% обращений были совершены ботами.

- В проекте Fedora из-за запросов ИИ-индексаторов наблюдаются сбои с работой платформы совместной разработки Pagure. В процессе противостояния с ИИ-ботами пришлось заблокировать множество подсетей, включая весь диапазон IP-адресов Бразилии, что привело к блокировке и некоторых пользователей.

- Сообщается о проблемах с сервисом совместной разработки Codeberg и инфраструктурой платформы Forgejo (code.forgejo.org), которые пытаются отразить поток запросов ИИ-индексаторов.

- GitLab-сервер проекта KDE на некоторое время оказался недоступен из-за перегрузки в результате активности ИИ-индексаторов, отравлявших запросы из подсети, принадлежащей компании Alibaba.

- Из-за высокой нагрузки на сайт разработчики Inkscape начали блокировку по спискам Prodigious и планируют установить систему Anubis для защиты от ИИ-индексаторов.

- Из-за наплыва ИИ-индексаторов отмечаются сбои в работе форума проекта FreeCAD и проблемы с Wiki проекта Arch Linux.

- Разработчики открытой социальной сети Diaspora сообщили о возрастании нагрузки на форумы Discourse, Wiki и web-сайт проекта. По статистике за ноябрь и декабрь, собранной до нашествия обезличенных ботов, около 70% всего трафика пришлось на запросы от ИИ-индексаторов: 24.6% трафика сгенерировано ботом GPTBot, 17.1% - Amazonbot, 4.3% - ClaudeBot, 2.2% - meta-externalagent (для сравнения на ботов Google и Bing приходится по 0.14% трафика).


Перегрузка инфраструктуры KDE, GNOME, Fedora, Codeberg и SourceHut из-за ИИ-индексаторов
https://www.opennet.ru/opennews/art.shtml?num=62925

Cloudflare выпустила AI Labyrinth, что бы бороться с подобной активностью
https://blog.cloudflare.com/ai-labyrinth/

A list of AI agents and robots to block.
http://github.com/ai-robots-txt/ai.robots.txt

~460 тысяч адресов с которых зафиксирована активность ИИ-ботов
https://www.partagerfichier.fr/download.php?f=2025-03-17-09-22-30_botnet-set.zip
😁17😢13👍6🤮4
Forwarded from rus dacent
😁37🔥63👍1
https://github.com/pypa/setuptools/pull/4870
https://github.com/pypa/setuptools/pull/4911

TL;DR - коллеги из Python решили потешить свое самолюбие, что "-" в setup.cfg нельзя, а можно только "_", взяли, вмержили это, а теперь откатывают, потому что сломали over 9000 пакетов!

Изменение из серии "изменение ради изменения", которые не делают "лучше", а делают просто "иначе, чем было", часто это связано с чьим-то разыгравшемся чувством прекрасного, и не более того.
🤡39💊186😁5
В январе я писал про Haiku OS
https://www.tgoop.com/tech_b0lt_Genona/4941

И вот опять есть повод! 🌝

Если кратко, то активист активно портирует драйвера Nvidia под Haiku

As many people already knows, Nvidia published their kernel driver under MIT license: GitHub - NVIDIA/open-gpu-kernel-modules: NVIDIA Linux open GPU kernel module source (I will call it NVRM). This driver is very portable and its platform-independent part can be compiled for Haiku with minor effort (but it need to implement OS-specific binding code to be actually useful).This is very valuable for Haiku because Linux kernel GPU drivers are very hard to port and it heavily depends on Linux kernel internals. Unfortunately userland OpenGL/Vulkan driver source code is not published. But as part of Mesa 3D project, new Vulkan driver “NVK” is being developed and is functional already. Mesa NVK driver is using Nouveau as kernel driver, so it can’t be directly used with NVRM kernel driver. NVK source code provides platform abstraction that allows to implement support of other kernel drivers such as NVRM.

I finally managed to make initial port NVRM kernel driver to Haiku and added initial NVRM API support to Mesa NVK Vulkan driver, so NVRM and NVK can work together. Some simple Vulkan tests are working.

Driver will support Turing+ GPUs only because older GPUs have no GSP microcontroller so it are not compatible with NVRM kernel driver. But newer Nvidia GPUs up to latest ones should be supported.

Haiku heart Nvidia (porting Nvidia GPU driver)
https://discuss.haiku-os.org/t/haiku-nvidia-porting-nvidia-gpu-driver/16520
👍13🔥63🆒1
Технологический Болт Генона
В январе я писал про Haiku OS https://www.tgoop.com/tech_b0lt_Genona/4941 И вот опять есть повод! 🌝 Если кратко, то активист активно портирует драйвера Nvidia под Haiku As many people already knows, Nvidia published their kernel driver under MIT license: GitHub…
"This driver is very portable and its platform-independent part can be compiled for Haiku with minor effort (but it need to implement OS-specific binding code to be actually useful)"

Вот и хорошо, что живет out of tree, а то привязали бы его к "Швабодке", и приличным людям бы ничего не досталось!

"I finally managed to make initial port NVRM kernel driver to Haiku and added initial NVRM API support to Mesa #NVK Vulkan driver, so NVRM and NVK can work together. Some simple Vulkan tests are working"

Коллега еще откроет для себя #zink, и все у него будет в шоколаде. UPD - уже, https://discuss.haiku-os.org/t/haiku-nvidia-porting-nvidia-gpu-driver/16520/12
8🤔5👍2🆒1
2025/07/13 18:26:13
Back to Top
HTML Embed Code: