اگه یادتون باشه کتاب text manipulation با کمک ابزارهای gnuیی رو با هم دیدیم. از همون نویسنده چند تا کتاب قشنگ دیگه هم هست که میتونید رایگان و آزاد بخونید:
آموزش بشاسکریپت، شامل دستورهای اولیه، انواع quote کردن و expansionها و redirect و کلی قابلیتهای جالبتر
https://learnbyexample.github.io/cli-computing/preface.html
(خیلی توصیه میشه)
آموزش grep
https://learnbyexample.github.io/learn_gnugrep_ripgrep/preface.html
آموزش sed
https://learnbyexample.github.io/learn_gnused/
آموزش awk
https://learnbyexample.github.io/learn_gnuawk/
آموزش ویم: کتاب خوبی بود و مطالب intermediate خوبی داشت ولی برای شروع توصیه نمیکنم. اگه یه مقدار استفاده کردین، برای یه جمعبندی و یادآوری میتونه خوب باشه به نظرم.
https://learnbyexample.github.io/vim_reference/preface.html
آموزش بشاسکریپت، شامل دستورهای اولیه، انواع quote کردن و expansionها و redirect و کلی قابلیتهای جالبتر
https://learnbyexample.github.io/cli-computing/preface.html
(خیلی توصیه میشه)
آموزش grep
https://learnbyexample.github.io/learn_gnugrep_ripgrep/preface.html
آموزش sed
https://learnbyexample.github.io/learn_gnused/
آموزش awk
https://learnbyexample.github.io/learn_gnuawk/
آموزش ویم: کتاب خوبی بود و مطالب intermediate خوبی داشت ولی برای شروع توصیه نمیکنم. اگه یه مقدار استفاده کردین، برای یه جمعبندی و یادآوری میتونه خوب باشه به نظرم.
https://learnbyexample.github.io/vim_reference/preface.html
learnbyexample.github.io
Linux Command Line Computing
Linux Command Line and Shell Scripting for beginner to intermediate level users
❤6👍2
نوشتههای ترمینالی
اگه در مورد مسائل زمان در سیستمهای کامپیوتری علاقه دارید بدونید، این ویدیوی خیلی جالبیه: https://www.youtube.com/watch?v=-5wpm-gesOY
همچنین این مطلب هم مطلب جالبیه:
https://infiniteundo.com/post/25326999628/falsehoods-programmers-believe-about-time
https://infiniteundo.com/post/25326999628/falsehoods-programmers-believe-about-time
Tumblr
Falsehoods programmers believe about time
Over the past couple of years [I have spent a lot of time][checklist] debugging other engineers' test code. This was interesting work, occasionally frustrating but always informative. One might not...
👏4
چطور عدم توجه به مشکلات زمان، کلادفلیر را دچار panic کرد؟
خلاصه: یادتون نره که time.Now میتونه همیشه به جلو حرکت نکنه و گاهی به عقب حرکت کنه.
https://blog.cloudflare.com/how-and-why-the-leap-second-affected-cloudflare-dns/
خلاصه: یادتون نره که time.Now میتونه همیشه به جلو حرکت نکنه و گاهی به عقب حرکت کنه.
https://blog.cloudflare.com/how-and-why-the-leap-second-affected-cloudflare-dns/
The Cloudflare Blog
How and why the leap second affected Cloudflare DNS
At midnight UTC on New Year’s Day, deep inside Cloudflare’s custom RRDNS software, a number went negative when it should always have been, at worst, zero. A little later this negative value caused RRDNS to panic.
👍5🤔2
یه مشکلی که alias ها توی شلهامون دارن، اینه که گاهی یادمون میره بعد یه مدت که دستور اصلی چی بود، هم اینکه تاریخچه کامندهامون نامرتبه و دیگه قابلیت سرچ رو به راحتی نداره.
پلاگین abbr برای zsh کار خلاقانهای که انجام میده اینه که میگه بیا aliasها رو بده به من، حالا هر موقع وارد کردی و خواستی دستور را اجرا کنی، من expandش میکنم به دستور اصلی.
به نظرم خلاقانه بود و مدلی که توش abbrها تعریف میشن هم زیباست. مخصوصا برای دوستان تازهکار تر که حوصله ادیت کردن zshrc رو ندارن شاید جالب باشه.
https://zsh-abbr.olets.dev/
پلاگین abbr برای zsh کار خلاقانهای که انجام میده اینه که میگه بیا aliasها رو بده به من، حالا هر موقع وارد کردی و خواستی دستور را اجرا کنی، من expandش میکنم به دستور اصلی.
به نظرم خلاقانه بود و مدلی که توش abbrها تعریف میشن هم زیباست. مخصوصا برای دوستان تازهکار تر که حوصله ادیت کردن zshrc رو ندارن شاید جالب باشه.
https://zsh-abbr.olets.dev/
zsh-abbr
The zsh manager for auto-expanding abbreviations
👍11🔥3
در زمانهی عجیبی از اوپنسورس هستیم. وضعیت جوریه که اپل و مایکروسافت کد اوپن سورس میکنن. (هرچند MS-DOS نسخه ۴ باشه)
https://github.com/apple/corenet
https://github.com/microsoft/MS-DOS
ولی از طرف دیگه، ردیس داره لایسنسش عوض میشه. CentOS رو از دست دادیم و IBM هم HashiCorp رو به زودی میخره.
برای کسایی که در جریان نیستن، HashiCorp شرکتیه که پشت Consul و Vault و Nomad و Terraform و Vagrant هست.
https://newsroom.ibm.com/2024-04-24-IBM-to-Acquire-HashiCorp-Inc-Creating-a-Comprehensive-End-to-End-Hybrid-Cloud-Platform
https://github.com/apple/corenet
https://github.com/microsoft/MS-DOS
ولی از طرف دیگه، ردیس داره لایسنسش عوض میشه. CentOS رو از دست دادیم و IBM هم HashiCorp رو به زودی میخره.
برای کسایی که در جریان نیستن، HashiCorp شرکتیه که پشت Consul و Vault و Nomad و Terraform و Vagrant هست.
https://newsroom.ibm.com/2024-04-24-IBM-to-Acquire-HashiCorp-Inc-Creating-a-Comprehensive-End-to-End-Hybrid-Cloud-Platform
GitHub
GitHub - apple/corenet: CoreNet: A library for training deep neural networks
CoreNet: A library for training deep neural networks - apple/corenet
🥰5😱2👍1😁1
با توجه به اینکه قبلا کاربر و طرفدار atom بودم تصمیم گرفتم که zed رو امتحان کنم. ادیتور جالبیه. با rust نوشته شده و به نظر سبک و سریع میاد.
داخل خودش امکان مشاهده فایلها و جا به جا شدن بینشون و پشتیبانی از autocomplete داره (بدون کانفیگ و پلاگین خاصی) که خیلی جالبه.
متاسفانه ولی چند تا ایراد عمده داره که باعث میشه فعلا نشه ازش استفاده کرد.
اول اینکه فقط برای macOS در دسترسه. دوم اینکه باگ هم کم نداره مخصوصا از قابلیاتها یپیچیدهش مثل همین autocomplete بخواید استفاده کنید. مثلا با اینکه من gopls رو نصب داشتم و تو یه پروژه ی معتبر گولنگی بودم ولی موتور اتوکامپلیتش قاطی کرد. دیدم ایشوی مرتبطش هم باز هست تو گیتهاب. یا مثلا اگه فایل زیپ رو دستتون بخوره باز کنید باهاش ارورهای عجیب میده که فایل utf-8 نیست. مشکلات دیگه مثل مصرف زیاد حافظه برای فایلهای بزرگ هم داره که همهی تبلیغاتش که با rust نوشته شده و سریع و سبکه رو زیر سوال میبره.
در کل به نظرم ایدههای خوبی رو داره دنبال میکنه و برای کسایی که نمیخوان IDE هر زبون خاص رو نصب کنن و الان مثلا از VSCode استفاده میکنن شاید بعدا که استیبل شد گزینهی خوبی باشه ولی در حال حاضر نه.
راستی فیچرهای خیلی باحالی هم نوید میده مثل اینکه با همکاراتون روی یک فایل کار کنید ولی با توجه به اینکه سیستمعامل قابل استفادهش محدوده من نتونستم خودم تست کنم.
یه لینک که در موردش نوشته و سایت رسمیش هم براتون میذارم اگه خواستید بیشتر بخونید:
https://www.infoq.com/news/2024/02/zed-code-editor-open-sourced/
https://zed.dev/
داخل خودش امکان مشاهده فایلها و جا به جا شدن بینشون و پشتیبانی از autocomplete داره (بدون کانفیگ و پلاگین خاصی) که خیلی جالبه.
متاسفانه ولی چند تا ایراد عمده داره که باعث میشه فعلا نشه ازش استفاده کرد.
اول اینکه فقط برای macOS در دسترسه. دوم اینکه باگ هم کم نداره مخصوصا از قابلیاتها یپیچیدهش مثل همین autocomplete بخواید استفاده کنید. مثلا با اینکه من gopls رو نصب داشتم و تو یه پروژه ی معتبر گولنگی بودم ولی موتور اتوکامپلیتش قاطی کرد. دیدم ایشوی مرتبطش هم باز هست تو گیتهاب. یا مثلا اگه فایل زیپ رو دستتون بخوره باز کنید باهاش ارورهای عجیب میده که فایل utf-8 نیست. مشکلات دیگه مثل مصرف زیاد حافظه برای فایلهای بزرگ هم داره که همهی تبلیغاتش که با rust نوشته شده و سریع و سبکه رو زیر سوال میبره.
در کل به نظرم ایدههای خوبی رو داره دنبال میکنه و برای کسایی که نمیخوان IDE هر زبون خاص رو نصب کنن و الان مثلا از VSCode استفاده میکنن شاید بعدا که استیبل شد گزینهی خوبی باشه ولی در حال حاضر نه.
راستی فیچرهای خیلی باحالی هم نوید میده مثل اینکه با همکاراتون روی یک فایل کار کنید ولی با توجه به اینکه سیستمعامل قابل استفادهش محدوده من نتونستم خودم تست کنم.
یه لینک که در موردش نوشته و سایت رسمیش هم براتون میذارم اگه خواستید بیشتر بخونید:
https://www.infoq.com/news/2024/02/zed-code-editor-open-sourced/
https://zed.dev/
InfoQ
The Creators of the Atom Code Editor Open-Source Zed, Their New Rust-Based High-Performance Editor
Nathan Sobo recently open-sourced Zed, a code editor that focuses on performance, integrates AI capabilities, and supports software teams’ collaboration out of the box. For performance, Zed leverages a Rust code base, multicore- and GPU-optimized code, with…
👍5❤3🔥2🤣1
من میخواستم یه مطلب مشابه همین بنویسم ولی این رو پیدا کردم و فقط توضیحات تکمیلی میدم.
ابزار ollama ربطی به llama3 نداره و میشه باهاش از marketplaceی که داره هر مدل اوپنسورسی رو مثل mistal رو پول کرد و اجرا کرد. رابط خوش دستی هم داره فقط تنها ایرادش اینه که سرورش ما رو تحریم کرده و برا پول کردن باید یه فکری بکنید.
برای فرانتاند هم میشه از چندین روش استفاده کرد. یکیش همین چت خودشه که تو ترمیناله و تو گیف مشاهده میکنید. حتی میشه بهش دستور pipe کرد ولی شاید بهترین تجربه کاربری نباشه.
میتونید هم از frontendهای دیگه استفاده کنید. ollama در اصل در حالت سرور با دستور ollama serve اجرا میشه و بعد میتونید frontendهای مختلف مثل cli خودش یا open-webui رو بهش متصل کنید.
حالا apiی که ارائه میده یه چیزی مختص خودشه، ولی پشتیبانی آزمایشی از api استاندارد open ai هم داره که در نتیجه میشه بهش ابزارهایی که در اصل برا chat gpt توسعه داده شدن رو هم بهش متصل کرد. من مثلا mods رو بهش متصل کردم برا استفاده تو ترمینال.
یه نکته پرفورمنسی هم اینکه اگر کارت گرافیک ندارید احتمالا خیلی پردازندهتون داغ و اذیت بشه و تولید نتیجه کند باشه (مگر اینکه خیلی قوی باشه که بعیده چنین سیستمی) اما شدنیه. اگر هم کارت گرافیک دارید نسخهی مخصوص ollama رو میتونید نصب کنید مثلا من که nvidia بود کارت گرافیکم، از aur پکیج ollama cuda رو نصب کردم و بدون دردسر خاصی کار کرد و لود رو انداخت رو gpu. داکهای خودشون هم برا gpu لینکش رو میگذارم.
https://github.com/ollama/ollama/blob/main/docs/linux.md
https://github.com/ollama/ollama/blob/main/docs/gpu.md
قبلا lm-studio رو معرفی کرده بودم که اون یه gui مرتب داره و میتونید همونجا چت کنید و مدل دانلود کنید و کامله و کار باهاش راحت تره ولی apiش گویا مطابق با open ai نیست. یه مشکل دیگه هم که داره اینه که در ان واحد یه مدل رو میتونه لود کنه و رو اون کار کنه در حالی که ollama اصلا مدل رو لود نمیکنه و وقتی serveش رو اجرا میکنید مموری خیلی کمی مصرف میکنه و بعد به تناسب api callی که دریافت میکنه از مدل استفاده میکنه. (که نمیدونم چرا ولی سریعه و خوبه!)
دو تا تجربه هم که داشتم مینویسم براتون.
اول اینکه لزومی نداره حتما ollama یا هر فرانتاندی به بکاند روی همون سیستم وصل بشه. اگه موقع زدن ollama serve تنظیمات لازم رو انجام بدید از هر سیستمی میشه بهش متصل شد، مثلا میشه مدل رو روی سرور بیارید بالا ولی ollama محلی رو تنظیم کنید که به سرور وصل بشه. من روی سیستمی که gpu و رم مناسبی داشت ران کردم و از لپتاپ بهش متصل شدم.
این ایشو رو ببینید:
https://github.com/ollama/ollama/issues/703
دوم اینکه open-webui حجم زیادی داره که برا یه gui خیلی منطقی نیست. ایمج داکرش حدود یک گیگابایت میشه! ولی امکانات جالبی هم اضافه میکنه مثلا قابلیت اکانتهای مختلف رو داره و اولین اکانت ادمینه و باید sign up بقیه رو تایید کنه. میتونید این رو هم روی سرور بیارید بالا و اکانت بسازید برای آدما و بهشون خدمت llm ارائه بدید. در واقع یه frontend و یه backend خودش داره که backendش به بکاندهای مختلفی از جمله ollama متصل میتونه بشه. در کل میشه گفت که برای استفاده شخصی رو یه سیستم داشتن ollama در کنار open-webui یه مقدار over engineer هست ولی با توجه به رابط کاربری مرتب و کم باگ open-webui به نظرم میشه بهش فکر کرد.
ابزار ollama ربطی به llama3 نداره و میشه باهاش از marketplaceی که داره هر مدل اوپنسورسی رو مثل mistal رو پول کرد و اجرا کرد. رابط خوش دستی هم داره فقط تنها ایرادش اینه که سرورش ما رو تحریم کرده و برا پول کردن باید یه فکری بکنید.
برای فرانتاند هم میشه از چندین روش استفاده کرد. یکیش همین چت خودشه که تو ترمیناله و تو گیف مشاهده میکنید. حتی میشه بهش دستور pipe کرد ولی شاید بهترین تجربه کاربری نباشه.
میتونید هم از frontendهای دیگه استفاده کنید. ollama در اصل در حالت سرور با دستور ollama serve اجرا میشه و بعد میتونید frontendهای مختلف مثل cli خودش یا open-webui رو بهش متصل کنید.
حالا apiی که ارائه میده یه چیزی مختص خودشه، ولی پشتیبانی آزمایشی از api استاندارد open ai هم داره که در نتیجه میشه بهش ابزارهایی که در اصل برا chat gpt توسعه داده شدن رو هم بهش متصل کرد. من مثلا mods رو بهش متصل کردم برا استفاده تو ترمینال.
یه نکته پرفورمنسی هم اینکه اگر کارت گرافیک ندارید احتمالا خیلی پردازندهتون داغ و اذیت بشه و تولید نتیجه کند باشه (مگر اینکه خیلی قوی باشه که بعیده چنین سیستمی) اما شدنیه. اگر هم کارت گرافیک دارید نسخهی مخصوص ollama رو میتونید نصب کنید مثلا من که nvidia بود کارت گرافیکم، از aur پکیج ollama cuda رو نصب کردم و بدون دردسر خاصی کار کرد و لود رو انداخت رو gpu. داکهای خودشون هم برا gpu لینکش رو میگذارم.
https://github.com/ollama/ollama/blob/main/docs/linux.md
https://github.com/ollama/ollama/blob/main/docs/gpu.md
قبلا lm-studio رو معرفی کرده بودم که اون یه gui مرتب داره و میتونید همونجا چت کنید و مدل دانلود کنید و کامله و کار باهاش راحت تره ولی apiش گویا مطابق با open ai نیست. یه مشکل دیگه هم که داره اینه که در ان واحد یه مدل رو میتونه لود کنه و رو اون کار کنه در حالی که ollama اصلا مدل رو لود نمیکنه و وقتی serveش رو اجرا میکنید مموری خیلی کمی مصرف میکنه و بعد به تناسب api callی که دریافت میکنه از مدل استفاده میکنه. (که نمیدونم چرا ولی سریعه و خوبه!)
دو تا تجربه هم که داشتم مینویسم براتون.
اول اینکه لزومی نداره حتما ollama یا هر فرانتاندی به بکاند روی همون سیستم وصل بشه. اگه موقع زدن ollama serve تنظیمات لازم رو انجام بدید از هر سیستمی میشه بهش متصل شد، مثلا میشه مدل رو روی سرور بیارید بالا ولی ollama محلی رو تنظیم کنید که به سرور وصل بشه. من روی سیستمی که gpu و رم مناسبی داشت ران کردم و از لپتاپ بهش متصل شدم.
این ایشو رو ببینید:
https://github.com/ollama/ollama/issues/703
دوم اینکه open-webui حجم زیادی داره که برا یه gui خیلی منطقی نیست. ایمج داکرش حدود یک گیگابایت میشه! ولی امکانات جالبی هم اضافه میکنه مثلا قابلیت اکانتهای مختلف رو داره و اولین اکانت ادمینه و باید sign up بقیه رو تایید کنه. میتونید این رو هم روی سرور بیارید بالا و اکانت بسازید برای آدما و بهشون خدمت llm ارائه بدید. در واقع یه frontend و یه backend خودش داره که backendش به بکاندهای مختلفی از جمله ollama متصل میتونه بشه. در کل میشه گفت که برای استفاده شخصی رو یه سیستم داشتن ollama در کنار open-webui یه مقدار over engineer هست ولی با توجه به رابط کاربری مرتب و کم باگ open-webui به نظرم میشه بهش فکر کرد.
GitHub
ollama/docs/linux.md at main · ollama/ollama
Get up and running with Llama 3.3, DeepSeek-R1, Phi-4, Gemma 3, Mistral Small 3.1 and other large language models. - ollama/ollama
👍4
Forwarded from Geek Alerts
This media is not supported in your browser
VIEW IN TELEGRAM
چطور مدلهای اپنسورس مثل llama3 رو اجرا کنیم؟
همینطور که میدونید متا مدتی پیش از خانواده مدل llama3 رونمایی کرد. مدلی که الان نسخه 70bش از بهترین مدل Claude و یکی از نسخههای gpt4 بهتر عمل میکنه. حالا اگه بخوایم نسخه 8bش که مدل سبکی هم هست و حتی میتونید روی یک رزبریپای هم بالا بیاریدش، باید چیکار کنیم؟ (گرافیک قویای نمیخواد و صرفاً نیاز به رم بالای ۸ و یه پردازنده نسبتاً خوب نیاز دارید)
سادهترین روش که تو ویدیو هم دیدیدش برای اجرای یک مدل، استفاده از ollamaست که یه ابزار تحت cliه. اینجوری که از این لینک نسخه مخصوص به سیستمعاملتون رو دانلود میکنید و نصب و بعدش با باز کردن یه پنجره ترمینال و نوشتن
نهایتا بعد از دانلود شدن مدل، میتونید باهاش چت کنید. برای ollama رابطهای گرافیکی زیادی موجوده. مثل anythingllm یا open-webui که میتونید روی سیستمتون اجراشون کنید و سادهتر با مدلها چت کنید.
حالا اگه یک محیط کامل(جدا از ollama) و به صورت گرافیکی میخواید، میتونید از LMStudio استفاده کنید. یه برنامه کامله که بهتون اجازه میده مدلها رو از HuggingFace دانلود کنید و بعد باهاش چت کنید. از مدلهایی که vision دارند هم پشتیبانی میکنه.
Hadi @geekalerts
همینطور که میدونید متا مدتی پیش از خانواده مدل llama3 رونمایی کرد. مدلی که الان نسخه 70bش از بهترین مدل Claude و یکی از نسخههای gpt4 بهتر عمل میکنه. حالا اگه بخوایم نسخه 8bش که مدل سبکی هم هست و حتی میتونید روی یک رزبریپای هم بالا بیاریدش، باید چیکار کنیم؟ (گرافیک قویای نمیخواد و صرفاً نیاز به رم بالای ۸ و یه پردازنده نسبتاً خوب نیاز دارید)
سادهترین روش که تو ویدیو هم دیدیدش برای اجرای یک مدل، استفاده از ollamaست که یه ابزار تحت cliه. اینجوری که از این لینک نسخه مخصوص به سیستمعاملتون رو دانلود میکنید و نصب و بعدش با باز کردن یه پنجره ترمینال و نوشتن
ollama run llama3
نهایتا بعد از دانلود شدن مدل، میتونید باهاش چت کنید. برای ollama رابطهای گرافیکی زیادی موجوده. مثل anythingllm یا open-webui که میتونید روی سیستمتون اجراشون کنید و سادهتر با مدلها چت کنید.
حالا اگه یک محیط کامل(جدا از ollama) و به صورت گرافیکی میخواید، میتونید از LMStudio استفاده کنید. یه برنامه کامله که بهتون اجازه میده مدلها رو از HuggingFace دانلود کنید و بعد باهاش چت کنید. از مدلهایی که vision دارند هم پشتیبانی میکنه.
Hadi @geekalerts
❤4👍1
آیا همیشه برنامههای گولنگ static link میشن؟ نه. چه زمانهایی نمیشن؟
این وسط CGO چیه؟
اگه دوست دارید بدونید:
https://mt165.co.uk/blog/static-link-go/
این وسط CGO چیه؟
اگه دوست دارید بدونید:
https://mt165.co.uk/blog/static-link-go/
Matt Turner
Statically Linking Go in 2022 - Matt Turner
How to statically link Go, updated for 2022
🐳3👍1
بهروشهای استفاده از Redis
خیلی مطلب کامل و جامعی بود و از مدیریت مموری ردیس، نحوه استفاده از ساختمان دادههای مختلف و طراحی کلیدها تا دیپلوی روی کلاد توضیح داده بود.
اگه از ردیس روی پروداکشن استفاده میکنید از دستش ندید به نظرم.
https://www.dragonflydb.io/guides/redis-best-practices
خیلی مطلب کامل و جامعی بود و از مدیریت مموری ردیس، نحوه استفاده از ساختمان دادههای مختلف و طراحی کلیدها تا دیپلوی روی کلاد توضیح داده بود.
اگه از ردیس روی پروداکشن استفاده میکنید از دستش ندید به نظرم.
https://www.dragonflydb.io/guides/redis-best-practices
Dragonfly
Redis Best Practices - Expert Tips for High Performance
Boost your Redis game with our top strategies. Master Redis best practices for unmatched performance.
👍4❤2
اگه از ردیس (یا جایگزینهای نزدیک بهش) استفاده میکنید، می تونید با کمک redis-cli بهش وصل بشین و هم برا یادگیری مناسبه هم برای دیباگ
اما در کنارش میشه یه سری gui هم داشت که جالب هستن. خود شرکت redis یه gui داره که من خیلی دوستش نداشتم به اسم redis insight
چندد تا دیگه هم هستن که من بینشون tiny rdm رو خیلی دوست داشتم. هم رابط قشنگ و کم باگی داره هم سنگین نیست.
ویژگی خوبی که من ازش استفاده کردم و تو redis-cli نیست (یا من بلد نیستم) دیدن تعداد کانکشنها و مقدار مصرف منابع ردیسه که به نظرم کمک میکنه. همچنین از کلیدها ساختار درختی نشون میده (برای زمانی که کلیدهاتون ساختار a:b:c دارن) که این هم خیلی کمک کنندهس.
https://github.com/tiny-craft/tiny-rdm
اما در کنارش میشه یه سری gui هم داشت که جالب هستن. خود شرکت redis یه gui داره که من خیلی دوستش نداشتم به اسم redis insight
چندد تا دیگه هم هستن که من بینشون tiny rdm رو خیلی دوست داشتم. هم رابط قشنگ و کم باگی داره هم سنگین نیست.
ویژگی خوبی که من ازش استفاده کردم و تو redis-cli نیست (یا من بلد نیستم) دیدن تعداد کانکشنها و مقدار مصرف منابع ردیسه که به نظرم کمک میکنه. همچنین از کلیدها ساختار درختی نشون میده (برای زمانی که کلیدهاتون ساختار a:b:c دارن) که این هم خیلی کمک کنندهس.
https://github.com/tiny-craft/tiny-rdm
GitHub
GitHub - tiny-craft/tiny-rdm: Tiny RDM (Tiny Redis Desktop Manager) - A modern, colorful, super lightweight Redis GUI client for…
Tiny RDM (Tiny Redis Desktop Manager) - A modern, colorful, super lightweight Redis GUI client for Mac, Windows, and Linux. - tiny-craft/tiny-rdm
👍13
اگه دوست دارید چک کردن نقشه رو هم در ترمینال انجام بدید، این پروژه برای شماست!
با زدن دستور
https://github.com/rastapasta/mapscii
با زدن دستور
telnet mapscii.me
یه مپ interactive باز میشه براتون و میتونید توش بچرخید و جاهای مختلف رو با ascii ببینید. https://github.com/rastapasta/mapscii
GitHub
GitHub - rastapasta/mapscii: 🗺 MapSCII is a Braille & ASCII world map renderer for your console - enter => telnet mapscii.me <=…
🗺 MapSCII is a Braille & ASCII world map renderer for your console - enter => telnet mapscii.me <= on Mac (brew install telnet) and Linux, connect with PuTTY on Windows - rastapasta/mapscii
👍10
اگه چند تا namespace یا cluster کوبرنتیز دارید و میمخواید راحت بینشون جا به جا بشید بهتون استفاده از kubectx رو پیشنهاد میدم.
https://github.com/ahmetb/kubectx
https://github.com/ahmetb/kubectx
GitHub
GitHub - ahmetb/kubectx: Faster way to switch between clusters and namespaces in kubectl
Faster way to switch between clusters and namespaces in kubectl - ahmetb/kubectx
❤6👍2
اگه دوست دارید بدونید زیر کاپوت git چه خبره این مطلب رو از دست ندید.
تو این مطلب تا حد خیلی خوبی محتویات پوشه .git شرح داده شده از جمله کامیت هارو برنچها و head و ...
به نظرم به درک بهتر از گیت خیلی کمک میکنه.
https://wizardzines.com/comics/inside-git/
تو این مطلب تا حد خیلی خوبی محتویات پوشه .git شرح داده شده از جمله کامیت هارو برنچها و head و ...
به نظرم به درک بهتر از گیت خیلی کمک میکنه.
https://wizardzines.com/comics/inside-git/
wizard zines
inside .git
👍11
اگه جویای کار و مصاحبه هستید یا صرفا کنجکاو هستین کلی تجربه مصاحبه بخونید بهتون این وبلاگ که معین جان زحمت کشیده و آماده کرده رو بخونید.
محتوای بسیار خوب و کامل و به نظرم منصفانهای داره و نکات خیلی خوبی میتونید ازش یاد بگیرید.
https://mo1ein.github.io/jobname/index.html
یادآوری کنم که شما هم اگه تجربهای دارید سعی کنید مکتوبش کنید، چون که تجربیات هرکس ارزشمنده و خوندنش برای بقیه خیلی مفیده.
محتوای بسیار خوب و کامل و به نظرم منصفانهای داره و نکات خیلی خوبی میتونید ازش یاد بگیرید.
https://mo1ein.github.io/jobname/index.html
یادآوری کنم که شما هم اگه تجربهای دارید سعی کنید مکتوبش کنید، چون که تجربیات هرکس ارزشمنده و خوندنش برای بقیه خیلی مفیده.
❤22👍7🔥3❤🔥1👏1
نوشتههای ترمینالی pinned «اگه جویای کار و مصاحبه هستید یا صرفا کنجکاو هستین کلی تجربه مصاحبه بخونید بهتون این وبلاگ که معین جان زحمت کشیده و آماده کرده رو بخونید. محتوای بسیار خوب و کامل و به نظرم منصفانهای داره و نکات خیلی خوبی میتونید ازش یاد بگیرید. https://mo1ein.github.…»