Telegram Web
ینگه‌نویس
🤖💡 Research Kick Chat 😥 دیگر ابزارها: 💰 ChatGPT 4.5: $20/ماه 💰 Claude 3.7: $20/ماه 💰 Gemini Advanced: $20/ماه بدون دسترسی به پایگاه‌های داده علمی 😀 Research Kick Chat: 💰 $30/ماه ChatGPT 4.5 + Claude 3.7 + Gemini Advanced ادغام با پایگاه‌های داده علمی…
چگونه به‌صورت خودکار و در چند ثانيه داده‌ها را از مقالات استخراج کنیم؟ معرفى ابزار AnswerThis!

🔺در طى فرايند مرور ادبيات موضوعى در تحقيقاتمان، استخراج داده‌های مرتبط از مقالات یک چالش است. اما این فرآیند قابل خودکارسازی است.

🔺در اين پست به معرفی ابزار AnswerThis مى پردازيم؛ ابزاری که داده‌ها را در عرض چند ثانیه استخراج می‌کند.

🔺نحوه عملکرد آن:
1. به آدرس https://answerthis.io/ رفته و وارد حساب کاربری خود شوید.
2. پس از ورود به سیستم، روی "Extract Data" کلیک کنید.
3. سپس روی "Upload PDF" کلیک کرده و مقالات خود را آپلود کنید.
4. این‌ها مقالاتی هستند که می‌خواهید داده‌ها را از آن‌ها استخراج کنید.
5. پس از آپلود مقالات، داده‌ای که می‌خواهید استخراج کنید را انتخاب کنید.

گزینه‌های پیش‌فرض عبارتند از:
- یافته‌های کلیدی
- شکاف‌های تحقیقاتی
- روش‌شناسی
- محدودیت‌ها
- کارهای آینده
- مشارکت‌ها
- کاربردهای عملی

7. همچنین می‌توانید داده‌های سفارشی مانند "داده‌های مورد استفاده" را نیز استخراج کنید.
8. برای مثال، من می‌خواهم روش‌شناسی‌های استفاده‌شده در این مقالات را استخراج کنم.
9. روش‌شناسی را انتخاب کرده و روی "Add Column" کلیک کردم.
10. ابزار AnswerThis اطلاعات مربوط به روش‌شناسی مقالات را استخراج می‌کند.
11. می‌توانید نمای داده‌ها را از حالت عادی به نمای جدول تغییر دهید.
12. برای این کار، به بالای صفحه برگردید و روی "Table View" کلیک کنید.
13. حالا، اگر بخواهید داده‌های بیشتری از این مقالات استخراج کنید:
14. به بالای صفحه برگردید و روی "Extract Data" کلیک کنید.
15. نوع داده‌ای که می‌خواهید استخراج کنید را انتخاب کنید.
16. برای مثال، اگر بخواهید داده‌هایی درباره کارهای آینده استخراج کنید:
17. روی "Future Work" کلیک کنید و سپس "Add Column" را انتخاب کنید.
18. ابزار AnswerThis داده‌های مربوط به کارهای آینده مقالات را استخراج می‌کند.
19. پس از استخراج داده‌های موردنظر، می‌توانید آن‌ها را خروجی بگیرید.
20. داده‌هایی که می‌خواهید را انتخاب کنید.
21. سپس روی "Export Data" کلیک کنید.
22. داده‌های شما در فرمت CSV ذخیره می‌شوند.

🔺در انتها می‌توانید این داده‌ها را برای مرور ادبیات خود تحلیل کنید.

منبع نوشته: دکتر بردیا صفایی
@YengehNevis
� استقرار عامل‌های هوش مصنوعی بدون پیچیدگی زیرساختی

بسیاری از توسعه‌دهندگان به جای تمرکز بر هوشمندسازی عامل‌های خود، درگیر مدیریت زیرساخت‌هایی مانند Kubernetes، پایپ‌لاین‌های استقرار و ابزارهای نظارتی می‌شوند.

Motia AI
، یک پلتفرم متن‌باز، این چالش را برطرف کرده و امکان توسعه و استقرار سریع را فراهم می‌کند:

پشتیبانی از چندین زبان در یک عامل:
🔹 پایتون (منطق عامل) | تایپ‌اسکریپت (ایمنی نوعی) | روبی (APIها)

استقرار ساده و سریع:
بدون Docker | بدون Kubernetes | بدون پیچیدگی‌های DevOps

اشکال‌زدایی بصری:
🔹 مشاهده فرآیند تصمیم‌گیری در لحظه و بهینه‌سازی عملکرد

🎯 نتیجه؟ توسعه‌دهندگان بدون دغدغه زیرساخت، بر هوشمندتر کردن عامل‌ها تمرکز می‌کنند.

🚀 همین حالا امتحان کنید:
🔗 https://github.com/MotiaDev/motia

#هوش_مصنوعی #عامل_هوشمند #MotiaAI #توسعه_نرم‌افزا

پ‌ن: شرکت‌های متعددی شبیه همین خدمات را ارائه می‌دهند. Stack Ai یکی از آن‌هاست.

@YengehNevis
یک مدل زبانی-ویدیویی بزرگ!

🧠🤖 چین به تازگی مدل هوش مصنوعی چندوجهی قدرتمندی به نام QVQ-Max رو منتشر کرده که می‌تونه ویدئوها رو تحلیل و تفسیر کنه، اون هم درست مثل انسان!

من دیروز این مدل رو روی یک ویدئوی بی‌صدا که فقط شامل حرکات بود امتحان کردم. جالبه که QVQ-Max تونست دقیقاً اتفاقاتی که در ویدئو رخ می‌داد رو تشخیص بده.

ولی این تمام ماجرا نبود؛ من آزمایش‌های بیشتری هم انجام دادم:
🔸 یک مسئله پیچیده ریاضی همراه با نمودار
🔸 اسکرین‌شات کد با خطا
🔸 یک سند چندصفحه‌ای پر از نمودار و جدول

نکته جالب اینه که این مدل یه قابلیت ویژه به نام «Thinking» داره که مراحل استدلال و تحلیلش رو قدم به قدم نشون می‌ده، انگار که داری لحظه به لحظه فکر کردنش رو تماشا می‌کنی.

ویژگی‌های برجسته QVQ-Max:
✔️ مشاهده دقیق: جزئیات بصری رو بهتر از مدل‌های دیگه تشخیص می‌ده.
✔️ استدلال عمیق: داده‌های بصری رو با دانش خودش ادغام می‌کنه.
✔️ کاربرد عملی: برای همه‌چیز، از اسناد کاری گرفته تا کمک‌های آموزشی.

به علاوه:
کاملاً رایگانه و روی Qwen Chat قابل دسترسیه.
به‌زودی امکان جستجوی وب رو با ادغام MCP خواهد داشت.
به‌راحتی با تصاویر و ویدئوها کار می‌کنه.

🔗 آدرس دسترسی به QVQ-Max:
https://chat.qwen.ai/


یک پیشرفت واقعی و ملموس در دنیای هوش مصنوعی! 🌟

📢 برای مطالب بیشتر، به کانال تلگرام «ینگه‌نویس» بپیوندید:
www.tgoop.com/yengehnevis
مدل زبانی ارزان‌تر و جامع‌تری برای محققان که درببرگیرنده چندین مدل بزرگ است معرفی شده:

https://www.chatacademia.com/


محققان استفاده کنند.
🚀 سال ۲۰۲۵: سالی تعیین‌کننده برای زیرساخت‌های هوش مصنوعی

سال ۲۰۲۵ به‌عنوان سالی محوری برای زیرساخت‌های هوش مصنوعی در حال شکل‌گیری است. در حالی که بحث‌ها پیرامون عامل‌های هوش مصنوعی (AI Agents) داغ است، توجه کمتری به پروتکل‌های بنیادینی معطوف می‌شود که قدرت واقعی آن‌ها را تأمین می‌کنند. دو پروتکل به‌طور ویژه در این سال برجسته شده‌اند:

MCP
از Anthropic
A2A
از Google

این پروتکل‌ها رقیب یکدیگر نیستند؛ بلکه با همکاری هم، آینده سیستم‌های هوشمند را شکل می‌دهند.

🧠 MCP (Model Context Protocol): یکپارچگی عمودی

MCP بر یکپارچگی عمودی تمرکز دارد و ارتباط مستقیم بین برنامه‌ها (Applications) و مدل‌های هوش مصنوعی (AI Models) را فراهم می‌کند. این پروتکل مانند سیستم عصبی عمل کرده، ارتباط بین مغز (مدل) و اعضا (برنامه‌ها) را برقرار می‌سازد و محدودیت‌های مربوط به پنجره‌های متنی (context windows) را برطرف می‌کند.

🤝 A2A (Agent-to-Agent Protocol): ارتباط افقی

A2A برای ارتباط افقی طراحی شده و به عامل‌های هوش مصنوعی مختلف اجازه می‌دهد مستقیماً با یکدیگر تعامل داشته باشند. این پروتکل چالش‌های تعامل‌پذیری (interoperability) را حل کرده و به عامل‌ها امکان همکاری در میان سازمان‌ها، سیستم‌ها و حتی شرکت‌های گوناگون را می‌دهد.

کاربردهای کلیدی هر پروتکل:

کاربردهای MCP:

ایجاد سامانه‌های جستجوی اسناد یا پرسش و پاسخ
دستیارهای برنامه‌نویسی یا ابزارهای توسعه
تعامل هوش مصنوعی با داده‌های شخصی
کنترل دقیق بر داده‌ها و عملکرد مدل
کاربردهای A2A:

گردش‌کارهای چندعاملی (Multi-Agent Workflows)
اتوماسیون فرآیندها بین دپارتمان‌ها
بازارها و اکوسیستم‌های عامل‌ها
حل مسائل پیچیده‌ای که نیازمند همکاری چندین عامل هستند
وضعیت توسعه و پذیرش:

این پروتکل‌ها به‌سرعت در حال رشد هستند:

وضعیت MCP:

با حمایت Anthropic، OpenAI و Google توسعه می‌یابد.
منبع‌باز و کاربرپسند است و اتصال مدل‌ها به ابزارها را ساده‌تر می‌کند.
جامعه توسعه‌دهندگان آن به‌سرعت در حال گسترش است.
وضعیت A2A:

در زمان راه‌اندازی بیش از ۵۰ شریک سازمانی داشت.
برای کسب‌وکارها طراحی شده و قابلیت‌های چندوجهی و تمرکز بر یکپارچه‌سازی فرآیندها دارد.
برای استفاده در مقیاس سازمانی ساخته شده است.
نکته کلیدی: MCP و A2A را می‌توان به پروتکل‌های TCP/IP اینترنت تشبیه کرد؛ MCP ارتباط عمودی (مانند TCP) و A2A ارتباط افقی (مانند IP) را مدیریت می‌کند.

📌 پوشش در کنفرانس MIT:

این مباحث به‌تفصیل در کنفرانس "هوش مصنوعی غیرمتمرکز" (Decentralized AI) که این هفته (۱۴ تا ۱۶ آوریل ۲۰۲۵) در آزمایشگاه رسانه MIT (MIT Media Lab) در کمبریج، ماساچوست برگزار شد، مورد بررسی قرار گرفتند. موضوعات کلیدی این کنفرانس شامل پروتکل‌های MCP و A2A، سیستم‌های چندعاملی، حاکمیت داده‌ها و آینده اینترنتِ مبتنی بر عامل‌های هوش مصنوعی بود.
برای اطلاعات بیشتر، به وب‌سایت رسمی کنفرانس مراجعه کنید:
https://mitdecai.org/summit.html

منابع بیشتر:

گوگل نیز اخیراً پروتکل A2A را به‌عنوان یک استاندارد باز معرفی کرده است که همکاری بین عامل‌های هوش مصنوعی از فروشندگان و چارچوب‌های مختلف را ممکن می‌سازد. جزئیات بیشتر در وبلاگ رسمی توسعه‌دهندگان گوگل موجود است:
https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/

برای آشنایی با سرورهای MCP و ابزارهای مرتبط، به وب‌سایت رسمی MCP Servers مراجعه کنید:
https://mcpservers.org/

نتیجه‌گیری: همکاری، نه رقابت

سیستم‌های هوشمند پیشرفته امروزی، به‌جای انتخاب یکی از این پروتکل‌ها، از هر دو به‌صورت ترکیبی بهره می‌برند:

MCP ابزارها و داده‌های لازم را برای مدل‌ها فراهم می‌کند.
A2A به عامل‌های تخصصی امکان می‌دهد تا با استفاده از قابلیت‌های منحصربه‌فرد خود، همکاری مؤثرتری داشته باشند.
بنابراین، موضوع انتخاب بین MCP یا A2A نیست، بلکه استفاده هماهنگ و لایه‌لایه از هر دو پروتکل است.

@YengehNevis
Audio
NoteBooKLM
ایجاد پادکست فارسی

هیچ نمی‌توانم بگویم جز آنکه به این امکان که اخیرا بهNoteBooKLM
اضافه شده توجه کنید.

این فایل یوتوب که اصول رهبری آمازون است را به آن دادم و از یک ویدیوی یک ساعته انگلیسی این ۸ دقیقه پادکست‌ را در آورده به فارسی!

(قبلا انگلیسی اون موجود بود)

Link
@YengehNevis
Audio
پادکست تولیدی با هوش مصنوعی در مورد مفهوم بسیار کلیدی یادگیری تقویتی با بازخورد انسانی

Reinforcement Learning Human Feedback

بر اساس وب‌سایت بسیار جالب توجه زیر:
https://rlhfbook.com/

@yengehnevis
غذا کو؟ ساعت چند است؟

بچه‌ها عصر که به خانه می‌رسند، گرسنه‌اند. یا باید چیزی ببرم که در حدفاصل مهد تا خانه، بخورند. یا باید بلافاصله بعد از آمدن به خانه چیزکی آماده کنم که رفع گرسنگی کنند. اگر فراموش کنم که خوراکی‌ای برای راه ببرم، یا اگر فراهم‌شدن بی‌درنگِ خوراکی پس از رسیدن، طول بکشد، آرام نمی‌گیرند. چنان بی‌قرار و پرسروصدا و هروله‌کنان خواهند شد، چنان از گرسنگی رقص‌پا می‌کنند، که منگ می‌شوی و خون به مغز تو هم نمی‌رسد. آن‌قدر که گرسنگی به خودت هیچ‌گاه چنین فشار نمی‌آورد. غذا و خوراکی که بهشان می‌رسد، چون آب سردی است بر آتش بی‌قراری‌. یکهو آرام می‌شوند و خون به مغزشان می‌رسد! به همین منطق ما دوبرابر آرام می‌شویم.

کسانی که کودک دارند، کسانی که تجربهٔ سروکله‌زدن با بچه را ساعت‌ها از سر گذرانده‌اند، می‌دانند بی‌قراریِ گرسنگی و تشنگی یعنی چه. بچه به معنای دقیق کلمه در هنگامهٔ گرسنگی، هیچ جمله و توصیه‌ای را معادل خوراکی نمی‌داند و برایش هیچ توجیهی در نبود غذا پذیرفتنی نیست. او گرسنه است و تشنه. فقط و فقط هم با آب و غذا آرام می‌گیرد. بی‌هیچ‌ صبری، بی‌هیچ قراری، بی‌هیچ‌ متانتی.

بر این تأکید می‌کنم که داشتن فرزند یا تجربهٔ فرزنداری شرط فهم این موقعیت است. کسانی که کودک خردسال ندارند، تجربهٔ زیسته‌ای از بی‌قراری بی‌درمانِ کودک هم در هنگام گرسنگی ندارند و معنای عینیِ این واژه‌های ساده و سخت را نمی‌فهمند. در همین دقیقه‌ای که من این کلمات به‌نظر بدیهی را می‌نویسم، در باریکهٔ محصور غزه نزدیک به ۱۴ هزار کودک به روایت مستند منابع بین‌المللی، احوالاتی چندبرابر شدیدتر از گرسنگیِ کودکان ما دارند.۱۴ هزار کودک در آستانهٔ جان‌دادن‌اند. گلوله نه، خمپاره نه، بمب خوشه‌ای نه، آن‌ها سر جای خودشان؛ در اثر نبود غذا و آب.

در همین دقیقه و ثانیه‌ای که تقویم میلادی‌اش ۲۱ می سال شرمگین ۲۰۲۵ را نشان می‌دهد، در همین دقیقه و ثانیه‌ای که در صدسال گذشته‌اش دو جنگ خونین جهانی رخ داده و انسان مثلاً از آنها درس گرفته است و حقوق‌بشر آفریده و قوانین بین‌المللی تدوین کرده و نهادهای جهانی ساخته، هیچ عمل بازدارنده‌ای رخ نمی‌دهد. تکرار کنیم، تا ساعاتی آینده در اثر نرسیدنِ همچنانِ غذا و آب، ۱۴ هزار کودک خواهند مرد. به همین سادگیِ متعفن. آشِ نکبتِ پاکساژی نژادی آن‌قدر شور شده، که زبان ترامپ هم حتی به حمایت اسرائیل و تهدید فلسطینی‌ها نمی‌چرخد، که دولت انگلیس سفیر اسرائیل را فرامی‌‌خواند، که نخست‌وزیر ایتالیا در مجلس به جهت سکوتش در برابر فاجعهٔ‌ غزه زیر رگبار حمله می‌رود، که اتحادیه اروپا تهدید به قطع روابط تجاری با اسرائیل می‌کند، که آلمان بر ضرورت پایان محاصره تأکید می‌کند، که برخی از ارتشی‌های داخل اسرائیل دولت را به نسل‌کشی و کشتن از سر تفریح خردسالان محکوم می‌کنند.

به سر سخن برگردم. در هر بار کلافگی ویرانگرِ بچه‌ها در اثر گرسنگی‌های کوتاه و اتفاقی، به معادل گرسنگیِ کودکان در غزه فکر می‌کنم. اینکه پدر و مادرهای خسته و ویران و آواره، که خود غذایی برای رفع گرسنگی ندارند و حتی به خوردن لاک‌پشت از دریا رو آورده‌اند، در این ساعت‌ها و دقیقه‌ها با بی‌تابیِ بچه‌ها چه می‌کنند؟ ما از پس ده دقیقهٔ این وضعیت برنمی‌آییم. آنان چه می‌کنند؟ با مثل شمع آب‌شدن کودکان خردسالِ گرسنه چه می‌کنند؟ ساعت‌ها و دقیقه‌های این درد بی‌درمان را چگونه می‌گذرانند؟

بدیِ دوران همذا‌ت‌پندار ما این است که ما نخستین نسلی از انسان‌ها هستیم که آنلاین و بر صفحهٔ گوشی‌های خود، تماشاگر نسل‌کشیِ تاریخیم؛ تماشاگرانی دست‌بسته و صرفاً متأسف. فاجعهٔ آشویتس که دستمایهٔ مظلو‌م‌نمایی و مایهٔ بنیان کشور اسرائیل است، هیچ‌گاه تماشاگرِ فراگیر معاصر به این اندازه نداشت. به همین نسبت، تاریخ هم بی‌رحم‌تر از داوری دربارهٔ هلوکاست، دربارهٔ سکوت و کمک وسیع دیگران به رخ‌دادن این فاجعه، داوری خواهد کرد. از میان میلیاردها انسان تماشاگرِ زندهٔ نسل‌کشی و گرسنه‌کشیِ امروزه غزه، انگشت‌شمارند کسانی چون گرتا توتبرگ که دست به کاری بزنند. بقیه چون ما نگاه می‌کنند و فقط لحظه‌لحظه‌های زندگیِ روزمره‌شان زهر می‌شود. شاید اگر اندک نشانی از حیات اخلاقی برای ما مانده باشد، همین زهرشدنِ شریفِ زندگی روزانه است. اما بدانیم که این زهر برای کودکان گرسنهٔ امروزِ غزه غذا نمی‌شود! غذا کو؟ ساعت چند است؟

#یادداشت
@Hamesh1
دانشجویان دکتری - چگونه شکاف تحقیقاتی (research gap) را به‌سادگی و با هوش مصنوعى شناسایی کنیم؟

🔺شناسایی شکاف‌های تحقیقاتی اکنون سریع‌تر و آسان‌تر شده است. به مراتب ساده تر از دو سه سال قبل!

🔺در اين پست، AnswerThis را معرفى مى كنيم، یک ابزار رایگان هوش مصنوعی، كه مى توانيد از آن برای شناسایی شکاف تحقیقاتی در چند ثانیه استفاده کنید.

🔺با استفاده از اين ابزار می‌توانید تحقیقات را تنها در ۳ مرحله ساده پیدا کنید:

1️⃣ به لينك زير مراجعه کنید:
https://answerthis.io/

2️⃣ موضوع تحقیقاتی خود را وارد كنيد
3️⃣ اين ابزار چهار نوع شکاف تحقیقاتی را شناسایی خواهد کرد:
- شکاف‌های روش‌شناختی (methodological)
- شکاف‌های نظری (theoritical)
- شکاف‌های کاربردی (practical)
- امکان تحقیق اصیل و نوآورانه

🔺مثل هميشه، پيشنهاد مى كنم از این ابزار به عنوان نقطه شروع استفاده کنید. سپس به عمق شکاف پیشنهادی بروید و ارزیابی کنید که آیا دارای پتانسیل لازم هست یا خیر.

از صفحه لینکدین دکتر بردیا صفایی
@YengehNevis
ینگه‌نویس
عشق جدید در زندگیم! این روزها با اختلاف متفاوت‌ترین روزهای عمرم بودند. دیگر آن حساب و کتاب‌های ملال‌آور گویا همگی رخت بربسته‌اند. دیگر زمان گویا متوقف شده و تمام توجهم شده این نوپدید در زندگیم. تمام لحظات بی‌یاد او نیستم. خستگی برایم معنایی دیگر یافته. کم‌خوابی…
پس از یک سال و نیم و این عشق

نزدیک به ۱۸ ماه از این متن گذشت. نوشته بودم که دیگر عوض شدم. خیلی عوض شدم!
تغییراتم از زمانی که منتظر رسیدنش بودیم شروع شده بود و گویا پژوهش‌ها هم این را تایید می‌کند.

تغییرات زیادند. وقتی در تب شدید یک بیماری می‌‌سوزم، از بی‌کار شدن و زمین‌‌‌‌خوردن در آستانه‌ی ناامیدی قرار می‌گیرم، وقتی خدا را فراموش می‌کنم، وقتی نمازم قضا می‌شود، وقتی و‌ وقتی که هر روزه خدا به من نشان می‌دهد نه تنها معصوم نیستم بلکه هم ظالمم، هم ناتوان و ضعیف؛ آنگاه:

صورت مثل ماه و معصوم فرزندم را می‌بینم و ناگهان سراسر امید و انگیزه و آرزو می‌شوم، یک‌سره توان و عصمت، یک‌سره به یاد خدا می‌افتم، یک‌سره شجاع و جسور می‌شوم.

آیا فقط به فرزند خودم چنان حسی دارم؟ به نظر می‌آید پدرشدن مرا به مقامی از احساسات می‌کشاند که نسبت به هرآنچه نیاز به پدر دارد، حسی دیگر همراه با شادی و لذت دارم. شاید لبخند آن‌ها هم مانند لبخند فرزند خودم- که حاضرم بمیرم و آن را از دست ندهم- برایم جذاب می‌شود.

به همسرم امروز می‌گفتم: می‌دانی بهترین لحظه‌ی روزانه من چیست؟ لحظه‌ای که وارد مهدکودک می‌شوم‌ تا پسرمان را ببرم یا برگردانم. چهره‌های نورانی و عشق پدر و مادرشان به آن‌ها، رشد و حرکاتی که کاملا هدایت الهی را در آن‌ها می‌بینم، یا نمی‌دانم چه رازی در میان است، ولی در مهدکودک گویا حسی به مراتب معنوی‌تر یا به اندازه خانه‌ی خدا به من دست می‌دهد.


نمی‌دانم مرا چه شده. فقط می‌دانم خیلی عوض شده‌ام!
ای کاش زودتر صاحب فرزند می‌شدم.
@yengehnevis
This media is not supported in your browser
VIEW IN TELEGRAM
روزی خواهد آمد... روزی خواهد آمد که این شیطان بزرگ سرجایش بنشیند..

واژه‌ها برای این درد کافی نیستند.
This media is not supported in your browser
VIEW IN TELEGRAM
این جمعیت کم است، برای نسل‌کشی و نابودی سرزمینمان، تجمع میلیونی لازم است. افسوس که برخی از هموطنان مدت‌هاست متوجه خطر این شیطان‌ها نشدند. اینها قرار بود برای ما آزادی و امنیت بیاورند؟ ای وای بر ما.
کانون ایرانیان بوستون در وسط این اخبار ناراحت‌‌کننده چنین پیامی فرستاد!

بعضی از ما ایرانی نیستیم، یه سری اسراییلی و‌امریکایی هستیم که قرمه‌سبزی و کباب کوبیده می‌خوریم!
خدایا از شر جاهلانی که ناخواسته بلندگو و‌ نیروی اسراییلی شده‌اند، به تو پناه می‌برم. توان ندارم با اینها بحث کنم به خصوص‌ اگر از نزدیکانم باشند. ما دو جبهه بیشتر نداریم، و شق سوم معنایی ندارد: ایران، اسراییل.

واقعا بدیهی نیست در این شرایط باید سرتاپا حامی‌ دولت ایران و‌ نیروی نظامی آن باشیم؟
فردا بعد از ظهر، در آمریکا، به طور هماهنگ به راهپیمایی علیه جنگ می‌رویم:

https://www.answercoalition.org/iran
شهر‌ خود را پیدا کنید و ملحق شوید. اگر شهرتان موجود نیست، با سازماندهان تماس بگیرید.

@yengehnevis
Forwarded from Hands Off Iran
https://www.answercoalition.org/iran

List of June 18 protests (check back for frequent updates)

Albuquerque, New Mexico
UNM Bookstore
6:00 p.m.

Ann Arbor, Michigan
The Federal Building, downtown Ann Arbor, corner of 5th Ave and Liberty St.
6:00 p.m.

Asheville, North Carolina
Pack Square
6:30 p.m.

Baltimore, Maryland
McKeldin Plaza, corner of E Pratt St & Light St
6:00 p.m.

Boise, Idaho
Boise City Hall
6:00 p.m.

Boston, Massachusetts
MA State House (24 Beacon St)
6:00 p.m.

Burlington, Vermont
Top of Church Street
6:00 p.m.

Champaign-Urbana, Illinois
Champaign County Courthouse (101 E. Main St, Urbana)
5:30 p.m.

Cincinnati, Ohio
City Hall
12:00 p.m.

Columbus, Ohio
Columbus City Hall
6:00 p.m.

Concord, New Hampshire
NH State House, 107 N Main St, Concord, NH 03301
6:00 p.m.

Eastsound, Washington
Corner of Main St. & North Beach Rd.
12:00 p.m.

Eugene, Oregon
211 E 7th St
5:00 p.m.

Fresno, California
2500 Tulare St.
11:00 a.m.

Indianapolis, Indiana
Lugar Plaza
6:00 p.m.

Kansas City, Missouri
W 43rd St & Broadway Blvd
6:00 p.m.

Kokomo, Indiana
Howard County Courthouse
5:30 p.m.

Las Vegas, Nevada
Federal Courthouse
6:00 p.m.

Los Angeles, California
Wilshire Federal Building (11000 Wilshire Blvd)
5:00 p.m.

Martinsburg, West Virginia
100 E. King Street - Martinsburg Square
6:00 p.m.

New York City
Bryant Park (Library steps)
6:00 p.m.

Pittsburgh, PA
Penn Ave. and S. Highland Ave.
6:30 p.m.

Providence, Rhode Island
Federal Building
6:00 p.m.

Richmond, Virginia
Monroe Park
6:00 p.m.

Sacramento, California
Outside Memorial Auditorium and 16th and J St.
5:00 p.m.

Washington, D.C.
The White House
6:00 p.m.

@handsoffIran
2025/06/19 00:14:15
Back to Top
HTML Embed Code: