Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
2871 - Telegram Web
Telegram Web
چرا تنها encoding خوب، utf-8 ئه؟
یه مطلب عمیق و طولانی در مورد مشکلات encodingهای دیگه در انواع سیستمها و پلتفرمها.

https://utf8everywhere.org/
👍3👎1🔥1🤯1
Forwarded from LinFAQ (Reza)
#روزی_یک_نکته با دلاتو

دسته‌بندی: #آموزشی #کاربردی #latex #rubber

راجب rubber برای کامپایل latex:

مقدمه: اگه از latex/xelatex برای کامپایل استفاده کنید، نیاز به چند سری کامپایل برای گرفتن خروجی درست هست وگرنه داخل pdf تولید شده، فهرست یا... درست نمایش داده نمیشن.
سرچ زدم و ظاهرا یه راه حل ساده داره: rubber
داخل مخازن رسمی آرچ بیسا هستش، بقیه توزیع ها رو نمیدونم.

برای کامپایل هم خیلی ساده از دستور زیر استفاده میکنید:
rubber -m xelatex <file>
"اسم file رو باید بدون پسوند tex بنویسید"


بخش وسطش هم برای اینه که اگه متنتون فارسی باشه اصولا با xelatex برای کامپایل سر و کار دارید و این میگه که از xelatex استفاده بشه.
مثال:
rubber -m xelatex myfile

جهت اطلاعات بیشتر میتونید من پیجش رو بخونید.

منبعی که منو با rubber آشنا کرد این stackoverflow بود.

در انتها اگه این مطلب براتون مفید بود و دلتون خواست، لطفا برای شادی روح یحیی تجری فرزند حسین یه فاتحه بخونید.

🔅@LinFAQ
🔅@LinAcademy
👍1
LinFAQ
#روزی_یک_نکته با دلاتو دسته‌بندی: #آموزشی #کاربردی #latex #rubber راجب rubber برای کامپایل latex: مقدمه: اگه از latex/xelatex برای کامپایل استفاده کنید، نیاز به چند سری کامپایل برای گرفتن خروجی درست هست وگرنه داخل pdf تولید شده، فهرست یا... درست نمایش…
این صورت مسئله‌ای که گفتن واقعا وجود دره و اگه از خیلی از قابلیت های latex استفاده کنید، با یه pass کامپایل کردن همه ی symbol ها درست کامپایل نمیشن و باید بار دوم و سوم هم کامپایل کنید،
برای این منظور یه اسکریپت perl رسمی به اسم latexmk وجود داره که البته یه مقدار قدیمی و کثیفه به نظر من ولی فوق‌العاده قدرتمنده. با فایل latexmkrc هم میتونید تنظیم کنید کامپایلر پیشفرض چی باشه. مثلا از pdflatex به xelatex تبدیلش کنید.
https://mg.readthedocs.io/latexmk.html


اما ابزارهای دیگه که وجود دارن و من پسندیدم یکی arara بود که با یکی دو خط بالای فایل نوشتن، میتونید بهش بگید چه مراحلی رو برای کامپایل باید طی کنه و این کارو انجام میده. پیشتبانی از root document هم داره.
https://github.com/islandoftex/arara

اما یکی دیگه از ابزارهای خیلی خوب latex که خیلی کار رو راحت می‌کنه tectonic ئه. با این ابزار دیگه نگران هیچی نیستیم، فقط نصبش میکنیم و می‌زنیم کامپایل فایل اصلی و تمام. هم نیازمندی ها رو خودش میگیره هم سر جای مناسب قرار میده هم هر تعداد مرحله که لازم باشه کامپایل می‌کنه. حجم زیادی هم نداره در کمال تعجب.
هدفش کلا روی reproducible بودن بیلد داکیومنت شماست و به نظرم کارش رو خیلیم خوب انجام میده. مثلا اگه از مسیرهای مطلق استفاده کنید بهتون هشدار میده که جای دیگه شاید این فایل وجود نداشته باشه. همینطور برای فونتها.
البته من تنها مشکلی که خوردم باهاش سر سازگاریش با biber برای ارجاع‌ها بود.
https://tectonic-typesetting.github.io/en-US/


همه این ابزارهای فنسی و جدید خوب، ولی مشکلی که وجود داره و باعث میشه مجبور بشیم از همون latexmk استفاده کنیم اینه که ideهای latex لزوما از این ابزارهای دلخواه ما استفاده نمیکنن، خیلیم اینطوریم نیست که ما دستور کامپایل رو عوض کنیم و کار کنه. (حداقل من موفق نشدم!)
قاعدتاً باید عوض کردن دستور کامپایل باید کافی باشه ولی:
https://tex.stackexchange.com/a/663445
🔥2
🎯 هوش مصنوعی احمق است، اما به‌شکلی قانع‌کننده
— هوش مصنوعی به شکل فعلی‌اش بیشتر کلیشه است تا خلاق، و بیشتر مبتذل است تا پیشرو


📍سال ۲۰۲۳، سال هوش مصنوعی بود. سالی که هر بار شبکه‌های اجتماعی را باز می‌کردی، با تصاویر عجیب و غریب، توهمی یا آخرالزمانی‌ای مواجه می‌شدی که هوش مصنوعی ساخته بود. یا داستان‌های پر شور و شوقی می‌شنیدی که چه‌کارهایی از چت جی‌پی‌تی برمی‌آید. اما کسانی که تحولات هوش مصنوعی را جدی‌تر دنبال می‌کردند، انگار به این خلاقیت‌ها چندان خوش‌بین نبودند. جیمز برایدل، در این مقالۀ مفصل توضیح می‌دهد که چرا برخی از رایج‌ترین تصورات دربارۀ هوش مصنوعی، در واقع، سراپا غلط‌اند.



🔖 ۴۸۰۰ کلمه
زمان مطالعه: ۳۰ دقيقه
                                       
📌 ادامۀ مطلب را در لینک زیر بخوانید:

B2n.ir/d76239

📌 آنچه خواندید بخشی است از پروندهٔ «ایلان مخوف» که در شمارهٔ ۲۷ مجلهٔ ترجمان منتشر شده است. برای خواندن مطالبی مشابه می‌توانید شمارۀ بیست‌وهفتم مجلهٔ ترجمان را از اینجا بخرید:
https://tarjomaan.com/shop/product/mag27/

📌 همچنین برای بهره‌مندی از تخفیف و مزایای دیگر می‌توانید اشتراک مجلۀ ترجمان را با تخفیف از اینجا خریداری کنید:
https://tarjomaan.shop/product/sub4014/

@tarjomaanweb
👍6
https://github.com/1995parham-learning/cloud-roadmap

اگه دوست دارید cloud engineer بشید، این نقشه‌ی راه خیلی خوبی می‌تونه براتون باشه. از مفاهیم پایه مثل شبکه و گولنگ تا پیشرفته‌تر مثل داکر و کوبرنتیز و .. رو شامل می‌شه.
کنار هر مطلب هم مشخصه که سطحش چیه و می‌تونید با مباحث آسون‌ترش شروع کنید.
👍5🥰1
Forwarded from Abalon | آبالون
وبینار مقایسه پلتفرم‌های ابری VMware و OpenStack ☁️

مواردی که در این وبینار به آنها خواهیم پرداخت:
- Network
- API
- Deployment
- Multi-Tenancy
- Disaster Recovery
- Security
- Cloud Compatibility
- Q&A
- ...
📆 یکشنبه ۲۹ بهمن ۱۴۰۲
ساعت ۱۹ الی ۲۱

ثبت‌نـام رایگان وبیـنار


@xaascloud | ابـر زَس
🍾4👍1
اگه دوست دارید مدلهای open source بزرگ زبانی رو تو سیستم محلیتون ران کنید (مثلا gemma گوگل) می‌تونید از این پروژه استفاده کنید:
https://lmstudio.ai/

رابط کاربری نسبتا خوبی داره و نصبش هم نسبتا آسونه. فقط نیاز به سخت‌افزار خوب مخصوصا رم زیاد دارید که کرش نکنه. حجم مدلها هم حدود ۲ تا ۶ گیگه که باید هر کدوم خواستید رو دانلود کنید.
🔥3👍1
یه مفهومی که توی توسعه نرم‌افزار تو شرکت‌های بزرگ گاها به کار می‌ره inner source هستش.
جریان چیه؟ به طور خلاصه میگه که ما بیایم سورس نرم‌افزار رو برای همه‌ی اعضای شرکت (حتی غیر تکنیکال‌ها مثل پروداکت‌منیجرها) باز کنیم و مثل یه نرم‌افزار open source هرکس که دلش خواست بیاد مشارکت کنه و تا حدی از مزایای توسعه‌ی نرم‌افزار متن‌باز استفاده کنیم.

حالا کاربردش چیه؟ چند تا مورد رو نوشته که تو لینک اگه خواستید بخونید ولی یکیش که برا من جالب بود اینه که یه دولوپر که میخواد یه چیزی رو پیاده‌سازی کنه می‌تونه ببینه الان تو شرکت مشابهش هست یا نه و code reuse بهتر میشه. یا حتی اگه بدونه که هست دیگه لازم نیست پیگیری کنه دسترسی بگیره به کد اون یکی تیم.
از طرفی احتمالا تشویق میشن تیم‌ها که داکیومنت بنویسن و داک بهتری هم بنویسن که بتونن از کمک دولوپر‌های دیگه استفاده کنن و به این ترتیب هم کد بهتری خواهیم داشت و هم دولوپر‌های فعال‌تر و مشتاق‌تر و داکیومنت بهتری.

https://about.gitlab.com/topics/version-control/what-is-innersource/
👍16
نوشته‌های ترمینالی
اگه دوست دارید مدلهای open source بزرگ زبانی رو تو سیستم محلیتون ران کنید (مثلا gemma گوگل) می‌تونید از این پروژه استفاده کنید: https://lmstudio.ai/ رابط کاربری نسبتا خوبی داره و نصبش هم نسبتا آسونه. فقط نیاز به سخت‌افزار خوب مخصوصا رم زیاد دارید که کرش…
این lmstudio که دیروز معرفی کردم، علاوه بر اینکه امکان چت توی guiش رو داره، یه api خوب هم میاره بالا که می‌تونید ازش استفاده کنید.
برای مثال می‌تونید از نرم‌افزار mods استفاده کنید تا توی ترمینال دسترسی به این LLMها داشته باشید، حالا mods می‌تونه به اکانت open aiتون وصل بشه یا به همین مدلها که لوکال در حال اجرا هستند.

https://github.com/charmbracelet/mods
👍2
اگر با pdf کار میکنید از این Stirling غافل نباشید.

یه ابزار همه‌ی کاره‌ی pdfئه و بالا آوردنش هم با docker خیلی راحته.
بهتون هر امکانی که هر سایت دیگه‌ای میده رو میده بدون تبلیغ و مشکل.
لیست امکاناتش هم اینجا ببینید:
https://github.com/Stirling-Tools/Stirling-PDF/tree/main
👍72
Forwarded from آرچ‌لینوکس پارسی (Mohammadreza)
کلودفلر سرویس میروری برای آرچ لینوکس راه اندازی کرده که نزدیکترین میرور از بین لیست میرورهای آرچ را برای ما انتخاب و درخواستها را به آن میرور ارسال میکند و در صورت موجود بودن بسته ها در کش بسته ها را از کش ارسال میکند.
برای استفاده از این سرویس میرور کافی است خط زیر را
Server = https://cloudflaremirrors.com/archlinux/$repo/os/$arch

به ابتدای لیست میرورها در فایل
/etc/pacman.d/mirrorlist
اضافه کنید. و سپس با دستور
sudo pacman -Syyu
دیتابیس پکمن را آپدیت نمایید.
👍93😱1
برای کم کردن حجم دیتا کارهای مختلف میشه کرد، یکی از روش‌های کم کردن حجم loseless، کدگذاری پترن‌های پرتکرار دیتائه، به این ترتیب پترن‌های پرتکرار حجمشون کم میشه ولی پترن‌های کمتکرار احتمالا حجمشون بیشتر میشه. پس خیلی مهمه که بتونیم به شکل مناسب کم‌حجم‌ها رو پیدا کنیم.

توی این مطلب هم یه ایده زدن برای پیدا کردن پترن‌های پرتکرار توی عکس با کمک یادگیری عمیق
https://bair.berkeley.edu/blog/2019/09/19/bit-swap/
👍4
اگه دوست دارید تو فیلد امنیت کار کنید این مطلب توصیه‌ها و منابع خوبی داره:
https://shellsharks.com/getting-into-information-security

این قسمت هم به طور خاص به پادکست‌ها و جامعه‌های فعال تو حوزه امنیت می‌پردازه:
https://shellsharks.com/getting-into-information-security#online-communities
8👍1👏1
اگه کاربر حرفه‌ای ترمینال هستین (که کلا این چنل برای شماست اگه اینطوریه!) احتمالا اسم kitty و alacritty به گوشتون خورده. ترمینال‌هایی که با استفاده از gpu پردازششون رو انجام میدن و مصرف پردازنده کمتر به همراه سرعت بیشتر (انشالا!) رو به ارمغان میارن.
یه ترمینال دیگه‌ای که دیدم که مزایای خیلی خوبی هم داره ولی توجه زیادی بهش نمیشه Wezterm هستش که توسط یه‌ اقایی به اسم Wez توسعه داده میشه. این هم همون مزایا رو داره ولی کانفیگش با luaئه و مزیت بزرگش اینه که تو سیستم‌عامل‌های مختلف با همون کانفیگ خودتون می‌تونه همونطوری کار کنه. (حتی ویندوز و مک!)

اینجا می‌تونید یه مقدار در مورد تفاوت هاشون بخونید:
https://github.com/wez/wezterm/discussions/1769

اینجا هم یه مقدار به نظرات پرداخته:
https://www.reddit.com/r/linux/comments/v86m6o/why_doesnt_wezterm_get_any_attention_compared_to/
خلاصه اینکه خیلیا دوستش داشتن، مخصوصا اونایی که با alacritty کار می‌کردن ولی خیلی راضی نبودن.
👍81
2025/07/14 09:55:14
Back to Top
HTML Embed Code: