بسیار خوب. دو سال پیش که در مورد ت.گذاث صحبت کردیم اگر به خاطر داشته باشید گفته بودیم که اوضاع کمی شلوغ شده بود که در این چند روز مجدد این اتفاق افتاد. برای دومین مقاله ای که امسال برای این موضوع قرار می دهیم مطالب را کمی گسترش می دهیم ولی محدودیت هایمان را درک کنید که مجدد نمی توانیم همه موارد را بگوییم.
قبلا پیرامون این موضوع نوشتیم که در مووی ها بسیار سعی می شود که به صورت غیر مستقیم در ناخودآگاه فرد داستان لایف یکی از علف ها در ذهن مخاطب شود. حالا در مورد نقطه مقابل که در مووی ها بحث می شود و اتفاقا کمی دیگر مووی دون پارت سکند اش روی آیمکس خواهد آمد صحبت می کنیم. د لست محمد در آرت. قبل از هر چیز این سوال را از خود بپرسید که واژه ایما م و از ماده اش در کرآن دوازده بار آمده است واقعا به چه معناست؟
اگر در یو اس زندگی کرده باشید و برای کارت سبز اقدام کرده باشید احتمالا می دانید که چطور در ایران باید دقیقا بدانید در برخی نهادها که آیا باید اول با پای چپ یا با راست یا هر دوپا یا بدون پا وارد کدام اماکن شوید، همچین مواردی را هم در زمان دریافت گرین چارت برای آنور بدانید. احتمالا اگر آشنایی داشته باشید حتما به شما گفته که اگر در مورد ناین ایلون صحبت شد حتما بگو که اتک قطعا ترو؟ ریست. ی بوده یا مواردی این چنین. از طرفی اگر در جاهایی با سطح دسترسی بالا قرار باشد کار کنید سوالات بسیار خاص تری پرسیده می شود. به حرف ما اصلا و ابدا اعتماد نکنید و خودتان اگر قصد زندگی در یو. اس دارید حتما این مورد را بررسی کنید. سوالاتی نظیر اینکه آیا قبول داری که یو اس خاص ترین استیت دنیاست یا پرزیدن ت یو اس پاورمند ترین فرد زمین است (برای اشارات بیشتر اظهارات اسن. ودن یا حتی فیلمی که چند سال قبل برایش ساختند را ببینید. در یکی از این سوالات نکته خاصی نهفته است. اصولا از کسی که شیعا توالو آیممامی است یا ا حل سنت اثنا اعاشریی است این سوال یک پارادوکس ایجاد می کند. زیرا این فرد باور دارد که دِ لاست محمد، دقیقا با همین لفظ می گوییم زیرا در اعهد ( -> احد) عتیق به همین شکل آمده، برجسته ترین فرد زنده است نه پرزیدنت یواس.
حالا که نزدیک الکشن هستیم و ریپابلیکن ها پا در هوا هستند برای انتخاب فرد نهایی و دکورمات ها هم بین عمر بالای کارنت پرزیدنت و کینیدی سینیور مردد هستند چند نکته را در بین بحث اصلی به عنوان تکمیل کننده بررسی می کنیم.
روزهای ابتدایی بود آماده بودم و خوب به خاطر دارم که اصطلاحی وجود داشت که خیلی از افراد نخبه که صرفا با اخبار فوکس یا جی ان ان گول نمی خوردند مدام می گفتند و آن این بود که وایت هوس را راکف ؟؟ لرها می گرانند. زمانی که چرچ جوش سان به پاور رسید خیلی ها می گفتند که دست این خونواده از هوس سفید دور ماند. در حالی که الان که این متن در حال نوشته شدن است خیلی کامل می فهمم که اتفاقا دقیقا در همان زمان اصلی ترین اهدافشان را اجرا کردند. در زمان همین فرد چپ و راست ایران را زدند و ناین ایل! ون** دقیقا در زمان همین فرد اتفاق افتاد. بحثی که می کنیم خیلی کلا خطرناک هستش و در انتها چند پیش بینی می کنیم به این دلیل که خط به خط در مسیری است که فکر می کنیم. در مورد گرداندند وایت هوس فقط کافی است بروید ببینید اوناباما یا چولونتون قبل از به قدرت رسیدن برای که در جوانی کار می کردند.
دیوید این هوس که بیش از یک قرن عمر کرد و همین چند سال پیش تصمیم گرفت به خواب همیشگی بره در مورد اینران -> آیرون صحبت خیلی مهمی داره. کلیت ماجرا را بگوییم دو پیشگویی در کتب عهد. !تیقه آمده که در هر دو اشاره به این دارد که آیرون قسمتی که بر و بچ پرافت جیکو بب برای خود برداشته اند را تصاحب می کند و دیفیت بدی می خورند. دیویدی که نامش را بردیم صراحتا چند سال پیش با این مضومون گفته بود که بدلیل اینکه آیرون ثروت طبیعی بسیاری داره، همیشه باید شلوغ باشه و قدرت مرکزی نداشته باشه. پارسال که گفتیم احتمالا زمان جام جهانی احتمال داره واری شکل بگیره صادقانه فکر می کردیم آیرون فربهستان نزولی رو بزنه به خاطر اتفاقاتی که افتاد ولی خرد به خرج دادند چون اگر می زدند رسما وار جهانی سوم شکل می گرفت دقیقا زمانی که آی ها روی میدل ایست زوم بود.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
قبلا پیرامون این موضوع نوشتیم که در مووی ها بسیار سعی می شود که به صورت غیر مستقیم در ناخودآگاه فرد داستان لایف یکی از علف ها در ذهن مخاطب شود. حالا در مورد نقطه مقابل که در مووی ها بحث می شود و اتفاقا کمی دیگر مووی دون پارت سکند اش روی آیمکس خواهد آمد صحبت می کنیم. د لست محمد در آرت. قبل از هر چیز این سوال را از خود بپرسید که واژه ایما م و از ماده اش در کرآن دوازده بار آمده است واقعا به چه معناست؟
اگر در یو اس زندگی کرده باشید و برای کارت سبز اقدام کرده باشید احتمالا می دانید که چطور در ایران باید دقیقا بدانید در برخی نهادها که آیا باید اول با پای چپ یا با راست یا هر دوپا یا بدون پا وارد کدام اماکن شوید، همچین مواردی را هم در زمان دریافت گرین چارت برای آنور بدانید. احتمالا اگر آشنایی داشته باشید حتما به شما گفته که اگر در مورد ناین ایلون صحبت شد حتما بگو که اتک قطعا ترو؟ ریست. ی بوده یا مواردی این چنین. از طرفی اگر در جاهایی با سطح دسترسی بالا قرار باشد کار کنید سوالات بسیار خاص تری پرسیده می شود. به حرف ما اصلا و ابدا اعتماد نکنید و خودتان اگر قصد زندگی در یو. اس دارید حتما این مورد را بررسی کنید. سوالاتی نظیر اینکه آیا قبول داری که یو اس خاص ترین استیت دنیاست یا پرزیدن ت یو اس پاورمند ترین فرد زمین است (برای اشارات بیشتر اظهارات اسن. ودن یا حتی فیلمی که چند سال قبل برایش ساختند را ببینید. در یکی از این سوالات نکته خاصی نهفته است. اصولا از کسی که شیعا توالو آیممامی است یا ا حل سنت اثنا اعاشریی است این سوال یک پارادوکس ایجاد می کند. زیرا این فرد باور دارد که دِ لاست محمد، دقیقا با همین لفظ می گوییم زیرا در اعهد ( -> احد) عتیق به همین شکل آمده، برجسته ترین فرد زنده است نه پرزیدنت یواس.
حالا که نزدیک الکشن هستیم و ریپابلیکن ها پا در هوا هستند برای انتخاب فرد نهایی و دکورمات ها هم بین عمر بالای کارنت پرزیدنت و کینیدی سینیور مردد هستند چند نکته را در بین بحث اصلی به عنوان تکمیل کننده بررسی می کنیم.
روزهای ابتدایی بود آماده بودم و خوب به خاطر دارم که اصطلاحی وجود داشت که خیلی از افراد نخبه که صرفا با اخبار فوکس یا جی ان ان گول نمی خوردند مدام می گفتند و آن این بود که وایت هوس را راکف ؟؟ لرها می گرانند. زمانی که چرچ جوش سان به پاور رسید خیلی ها می گفتند که دست این خونواده از هوس سفید دور ماند. در حالی که الان که این متن در حال نوشته شدن است خیلی کامل می فهمم که اتفاقا دقیقا در همان زمان اصلی ترین اهدافشان را اجرا کردند. در زمان همین فرد چپ و راست ایران را زدند و ناین ایل! ون** دقیقا در زمان همین فرد اتفاق افتاد. بحثی که می کنیم خیلی کلا خطرناک هستش و در انتها چند پیش بینی می کنیم به این دلیل که خط به خط در مسیری است که فکر می کنیم. در مورد گرداندند وایت هوس فقط کافی است بروید ببینید اوناباما یا چولونتون قبل از به قدرت رسیدن برای که در جوانی کار می کردند.
دیوید این هوس که بیش از یک قرن عمر کرد و همین چند سال پیش تصمیم گرفت به خواب همیشگی بره در مورد اینران -> آیرون صحبت خیلی مهمی داره. کلیت ماجرا را بگوییم دو پیشگویی در کتب عهد. !تیقه آمده که در هر دو اشاره به این دارد که آیرون قسمتی که بر و بچ پرافت جیکو بب برای خود برداشته اند را تصاحب می کند و دیفیت بدی می خورند. دیویدی که نامش را بردیم صراحتا چند سال پیش با این مضومون گفته بود که بدلیل اینکه آیرون ثروت طبیعی بسیاری داره، همیشه باید شلوغ باشه و قدرت مرکزی نداشته باشه. پارسال که گفتیم احتمالا زمان جام جهانی احتمال داره واری شکل بگیره صادقانه فکر می کردیم آیرون فربهستان نزولی رو بزنه به خاطر اتفاقاتی که افتاد ولی خرد به خرج دادند چون اگر می زدند رسما وار جهانی سوم شکل می گرفت دقیقا زمانی که آی ها روی میدل ایست زوم بود.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
برای اینکه مساله رو باز کنیم، احتمالا افراد خانوادتون اگر در یو اس زندگی کرده باشه احتمالا یادش بیاد که یه زمان پیرهنهایی چاپ می کردند که روش می نوشتن به این مضمون که برای آیرونی ها ترمز نمی گیریم و از روشون رد می شیم. به خاطر داشته باشیم گفته بودیم که میزان محبوبیت آیرونی ها از نظر پاپیولیشن یواس خیلی افتضاح هستش. همه اینها به خاطر این بود که اگر به آیرون اتک زدن ذهنها قبلش آماده پذیرش باشه. دلیلش رو می گیم. همه ریپابلیکن ها و دکور ماتورها رو توی ظاهر می بینند ولی در اصل این دو هر کدوم به دو لابی جداگون جواب پس می دن که پشت پرده کارهارو انجام می دن. اسمشون رو خیلی ساده می تونید پیدا کنید در نت. اینها در کلیت اهداف یکسو هستند ولی روشهای متفاوتی دارند. مجدد تاکیید می کنیم که باور نکنید و خودتان جست و جو کنید. نهادی در یوا س وجود دارد بایپارتیسان پالسی سنتر که با توجه به سلسله مراتب هر دو پارتی باید کلیت کارهایشان در یک راستا باشد. اما به دلیل پیشگویی گفته شده این دو لاپی که هر دو برای سایو .... نیست ها هستند این کینه را در دل سیویلین های یو اس به وجود آورده اند. اگر به خاطر داشته باشید اینجا یوباما مدام می گفت در مورد آیرون همه آپشن ها را در روی میز داریم. به طرز واضحی دروغ می گفت. کسانی که فورکس کار هستند خوب دقت کنند نکته ای خواهیم گفت. صدا و شیما ایران احتمالا دیده اید که مدام افاضه می کند که آمریکا پر بدهی ترین کانتری دنیا است، مینیستری فارن افرز در یواس خیلی زیگل است و از این موارد. صدا و سیمها رسما ززززززرررررر میزند.
در همین دو جمله کلی دروغ وجود دارد که حتی اگر در یو اس هم سی تیز زن باشید بازهم شاید ندانید. به ترتیب دروغ ها را باز می کنیم. یو اس بدهی به کسی ندارد. به این شکل درست است که یو اس دولار بدون پشتوانه طلا چاپ کرده ولی برای اینکه تورم ایجاد نکند این اضافات را از استیتهای داخلی خارج کرده و به کانتری های دیگر داده. به عبارتی، کاغذ پاره ای به نام دولا ر به دیگران داده و برای خودش کالا وارد کرده. همین الان اگر چاینا دولاری که دارد را در بازار ی واس وارد کند، رسما یک شبه می توان فاتحه دو لاز را خواند، هر چند به این صورت عملی نیست.
لای بعدی به این بر می گردد که گفته می شود کانتری یواس. بازهم این مورد راست نیست. اصولا یو اس دنیا را به دو قسمت تقسیم کرده، آیآلآت های اینترنال و اکسترنال. حتما این مورد را به انگلیش سرچ کنید به نکات جالبی می رسید. بنابراین این که گفته می شود مثلا وژیر افور خارجه بلینکن یا پفپفو ، همین لفظ اشتباه است. اصلا این کشوز فارن افرز ندارد. این حضرات که نام بردیم که یکی برای دسته الاغها و دیگری برای فیلها هستند وژیژ استیت هستند.
دلیل اینکه یو اس در این چند سال ای تهدیگ می فرستاد برای آیرون این بود که پول وار را نداشت و این را همه می دانستند. سال قبل به خاطر داشته باشید گفتیم که در فیلم وار فردا موارد زیادی را کد کرده بودند، بگذریم که نتیجه جام جهانی هم تری تری شد مثل فیلم. با توجه به فیلم اردوکان نقش مهمی داشت برای وار ولی ظاهرا برای زلزه اون پلن نشد و قرار شده بود فربه ستان و آیرون رو به جون هم بندازن. اگر به خاطر داشته باشید در مووی یاد شده توالو مانستر در یک سین کشته می شدند که تاکید وجود داشت. دلیل اینکه این متن را نزدیک الکشن ی واس می نویسم این است که اگر به خاطر داشته باشید در سال دو هزار و شانزده دو مووی مهم اکران شدند به نام فتمن ورسس شوپر من و جنگ داخلی که یکی برای دیسی و دیگری برای مرول بود و در آن نشان می داد که دو جبهه که باید در کنار هم باشند روبه رو هم می شدند و باز با هم متحد می شدند. دقیقا در همان الکشن نزاع بین تورو مپ و چیلین تن که زمانی فرست لیدی بود رخ داد.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
در همین دو جمله کلی دروغ وجود دارد که حتی اگر در یو اس هم سی تیز زن باشید بازهم شاید ندانید. به ترتیب دروغ ها را باز می کنیم. یو اس بدهی به کسی ندارد. به این شکل درست است که یو اس دولار بدون پشتوانه طلا چاپ کرده ولی برای اینکه تورم ایجاد نکند این اضافات را از استیتهای داخلی خارج کرده و به کانتری های دیگر داده. به عبارتی، کاغذ پاره ای به نام دولا ر به دیگران داده و برای خودش کالا وارد کرده. همین الان اگر چاینا دولاری که دارد را در بازار ی واس وارد کند، رسما یک شبه می توان فاتحه دو لاز را خواند، هر چند به این صورت عملی نیست.
لای بعدی به این بر می گردد که گفته می شود کانتری یواس. بازهم این مورد راست نیست. اصولا یو اس دنیا را به دو قسمت تقسیم کرده، آیآلآت های اینترنال و اکسترنال. حتما این مورد را به انگلیش سرچ کنید به نکات جالبی می رسید. بنابراین این که گفته می شود مثلا وژیر افور خارجه بلینکن یا پفپفو ، همین لفظ اشتباه است. اصلا این کشوز فارن افرز ندارد. این حضرات که نام بردیم که یکی برای دسته الاغها و دیگری برای فیلها هستند وژیژ استیت هستند.
دلیل اینکه یو اس در این چند سال ای تهدیگ می فرستاد برای آیرون این بود که پول وار را نداشت و این را همه می دانستند. سال قبل به خاطر داشته باشید گفتیم که در فیلم وار فردا موارد زیادی را کد کرده بودند، بگذریم که نتیجه جام جهانی هم تری تری شد مثل فیلم. با توجه به فیلم اردوکان نقش مهمی داشت برای وار ولی ظاهرا برای زلزه اون پلن نشد و قرار شده بود فربه ستان و آیرون رو به جون هم بندازن. اگر به خاطر داشته باشید در مووی یاد شده توالو مانستر در یک سین کشته می شدند که تاکید وجود داشت. دلیل اینکه این متن را نزدیک الکشن ی واس می نویسم این است که اگر به خاطر داشته باشید در سال دو هزار و شانزده دو مووی مهم اکران شدند به نام فتمن ورسس شوپر من و جنگ داخلی که یکی برای دیسی و دیگری برای مرول بود و در آن نشان می داد که دو جبهه که باید در کنار هم باشند روبه رو هم می شدند و باز با هم متحد می شدند. دقیقا در همان الکشن نزاع بین تورو مپ و چیلین تن که زمانی فرست لیدی بود رخ داد.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
حالا الان چی شده مدام مووی برای جهان پارالل می سازند؟ جهانهایی که برای جینیان است؟ در قرآن همان اول ذکر می شود حمد برای خدای عالمین است. میشد گاد بگه دو عالم که اشاره به دنیا و آچرت باشه ولی گفته عالم ها. قراره دقیقا چی بشه؟ از فردا شیا طون شیطون قرار تجسم پیدا کنند و به ب شر حکوممت کنند؟ یکی از نشانه های اکو پلیس دقیقا همین است که پرده بین انسان ها و علف ها از بین می ره و حتی ان س های بد هم به غلط کردن می افتن که من جی برسه.
خلاصه کسانی که فورکس کار می کنند بدونند ذولاز کمی ریسک داره. به خاطر دارید وقتی انگل ستان از فورو جدا شد در فورکس چه به سر پند و اندرز آمد؟
چند پیش بینی می کنیم در این بین و شاید بعدا بیشتر توضیح دادیم. به حروف تی بی جی ال، بر عکس کنید می فهمید، حروف جدیدی اضافه میشود، خیلی مراقب فرزندانتون باشید. فایدن زمانی که میلیتری رو از افگانستان برداشت نکته ای گفت که به نوعی در یو اس بایک وت شد. گفت ما از اینجا می ریم، ولی اینجا قراره فمین برای واتر بیاد. فکر کردید چرا دقیقا توی میدل ایست شیر خشک سازی وجود نداره ولی همه میدل ایست و کمی چپ و راستش همه سد سازی دارن؟!
اما بحث اصلی که می خواستیم اشاره کنیم. قسمتی را باز می کنیم که در ارتباط با کتابها و مویهای پر فن هستند. یکی از ویژگیهای کتاب و فیمل اژباب خلقه ها دو پهلو بودن آن است؛ یعنی کسی که سای .نیست است برداشت های خود را دارد و این برداشتها کاملا متفاوت است با آن چیزی که یک فرد ماسلم بعد از تماشا یا خواندن دارد. بیاید اینطور فرض کنیم. اگر گاندلف را عیسی در نظر بگیریم که از مرگ باز گشته، آراگورن را منجی و د لاست محم د در نظر بگیریم که سن زیادی دارد در مقایسه با سایر انسانها و سائورونِ تک آی را نماد غناهای آزاد در نظر بگیریم، چیعیان خیلی باید با این اثر ارتباط برقرار کنند ولی سوالی که وجود دارد این است که آیا واقعا به این شکل است؟ ویژگی برجسته اثر تالکین این است، این ویژگی در فیلمهای جکسون نیز وجود دارد، که اثرش به گونه ای است که به خاطر وجود دو پهلویی که هر یک از وجه ها برای دسته ای خود را نمایان می کند، به طرز عجیبی در ماسلم ها فسیحیان و سای نیستها نفوذ کرده است. اول باید تکلیف را روشن کنیم که تالکین اصلا به ماسلمها وابستگی نداشته که برای منجی آنها کتابی حماسی بنویسد. اگر کلیات را موشکافی کنیم، قسمتهای بزرگی از دیالوگهای موجود در اثر، از کتب احد عتیقه هستند، موردی که ماسلمها نمی دانند. از سویی یکسری از ساینها هستند نمی توان در کالچر ماسلم همتا پیدا کرد در حالی که هر یک از اینها در فرهنگ سا ین یستها معنا دارد از جمله شهر و درخت سفید، دیوارهای شهر وایت و ... .
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
خلاصه کسانی که فورکس کار می کنند بدونند ذولاز کمی ریسک داره. به خاطر دارید وقتی انگل ستان از فورو جدا شد در فورکس چه به سر پند و اندرز آمد؟
چند پیش بینی می کنیم در این بین و شاید بعدا بیشتر توضیح دادیم. به حروف تی بی جی ال، بر عکس کنید می فهمید، حروف جدیدی اضافه میشود، خیلی مراقب فرزندانتون باشید. فایدن زمانی که میلیتری رو از افگانستان برداشت نکته ای گفت که به نوعی در یو اس بایک وت شد. گفت ما از اینجا می ریم، ولی اینجا قراره فمین برای واتر بیاد. فکر کردید چرا دقیقا توی میدل ایست شیر خشک سازی وجود نداره ولی همه میدل ایست و کمی چپ و راستش همه سد سازی دارن؟!
اما بحث اصلی که می خواستیم اشاره کنیم. قسمتی را باز می کنیم که در ارتباط با کتابها و مویهای پر فن هستند. یکی از ویژگیهای کتاب و فیمل اژباب خلقه ها دو پهلو بودن آن است؛ یعنی کسی که سای .نیست است برداشت های خود را دارد و این برداشتها کاملا متفاوت است با آن چیزی که یک فرد ماسلم بعد از تماشا یا خواندن دارد. بیاید اینطور فرض کنیم. اگر گاندلف را عیسی در نظر بگیریم که از مرگ باز گشته، آراگورن را منجی و د لاست محم د در نظر بگیریم که سن زیادی دارد در مقایسه با سایر انسانها و سائورونِ تک آی را نماد غناهای آزاد در نظر بگیریم، چیعیان خیلی باید با این اثر ارتباط برقرار کنند ولی سوالی که وجود دارد این است که آیا واقعا به این شکل است؟ ویژگی برجسته اثر تالکین این است، این ویژگی در فیلمهای جکسون نیز وجود دارد، که اثرش به گونه ای است که به خاطر وجود دو پهلویی که هر یک از وجه ها برای دسته ای خود را نمایان می کند، به طرز عجیبی در ماسلم ها فسیحیان و سای نیستها نفوذ کرده است. اول باید تکلیف را روشن کنیم که تالکین اصلا به ماسلمها وابستگی نداشته که برای منجی آنها کتابی حماسی بنویسد. اگر کلیات را موشکافی کنیم، قسمتهای بزرگی از دیالوگهای موجود در اثر، از کتب احد عتیقه هستند، موردی که ماسلمها نمی دانند. از سویی یکسری از ساینها هستند نمی توان در کالچر ماسلم همتا پیدا کرد در حالی که هر یک از اینها در فرهنگ سا ین یستها معنا دارد از جمله شهر و درخت سفید، دیوارهای شهر وایت و ... .
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
انتهای فیمل سوم اگر به خاطر داشته باشید، زمین شکافته شد و ارگهای جهش یافته را بلعید. یکی از پیشگویی های قطعی زحور بلعیده شدن ارتش تاریکی بوسیله زمین در فربهستان، کاور میانه، است. این پدیده در فیلم از دید ما ماسلمها دقیقا همین معنی را داشت ولی از دید سای نیست ها دقیقا معنایی عکس دارد که نیروی ما قرار است نابود شود؛ یعنی حتی چنین مفهومی هم در فیلم معنایی دوگانه دارد.
اما موضوعِ اصلی به منجی باز می گردد. تالکین خیلی ساده با نسبت دادن سن زیاد به آراگورن او را آخرین مح مد جا می زند برای مخاطبان ماسلم ولی واقعیت این است که اوضاع کاملا متفاوت است. اگر به دقت نگاه کنیم، شخصی که در داستان غیبت دارد سائورون است. تک آی را در فیلم ها به خاطر دارید؟ به هیچ وجه این ساین، نماد میسونها نیست. طبق جست و جوهایمان در بخشی از سلام د لاست گاردین می گویم السَّلامُ عَلَیْکَ یَا عَیْنَ اللّهِ فِی خَلْقِهِ. یکی از باورهای عمیق چیعه این است که کارهایشان به ایمام تایمشان داده می شود و او ناظر بر آنهاست. اگر به این شکل نگاه کنیم، آراگورن منجی بنی جیکوب و به طور دقیقتر نماد فرمانرواییِ البیس بر زمین است، در کارتون I p****et g?? oat 2 می توان رد مستقیم این ادعا را دید. اصولا القای این مفاهیم به کسانی که فیلمها یا کتابها را دیده اند خیلی سخت است زیرا نسبت به آثار حب قلبی دارند و سعی نخواهد شد که عقایدی تحمیل شود؛ با این حال، برای اطمینان از تکمیل بحث، چرا نام منطقه سرزمین میانه بود؟ سرزمین میانه یا خاور میانه محلی است که ادیان گادی در آنجا به دست مردم رسیده است. از سویی، غنی ترین منابع فسیلی و معدنی کره زمین در این ناحیه قرار دارد. هر کس قدرت را در این ناحیه در دست داشته باشد، ذهنها و ثروت را کنترل می کند.
زمانی بود که خیلی ها می گفتند به جکسون ارتباطی ندارد. زمانی که فیلم هابیت ساخته شد، این ادعا کاملا رد شد. ارگی که منجیِ کوتوله ها را کشت به خاطر دارید؟ یکی از دستانش شمشیر بود. شمشیر چند لبه داشت؟ هرگاه در چوب جادو شمشیری دو لبه دیدید به یاد ذوالف** قار بیافتید. این موضوع در فیلمِ message که ما با نام محمد رسول الله (ص) می شناسیم، کد شده بود. در این فیلم فِرست ایم آم با شمشیری دو لبه به مبارزه می رفت. در آن فیلم از آن نماد استفاده کردند که بعدها در سایر آثار به این شکل چیعه را کد کنند. به عنوان نکته جانبی، در همین فیلم message یکی از نکاتی که معمولا در نظر گرفته نمی شود این است که فیلم تحریف تاریخی ندارد، فراموشیِ تاریخی دارد. بیش از هشتاد درصدِ نبردهای آخرین نبی با بروبچ یعقوب بوده است ولی در این فیلم اصلا به این نبردها اشاره نمی شود.
شاید بعدا قسمت نهایی را برای این سری از نوشتار نوشتیم.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
اما موضوعِ اصلی به منجی باز می گردد. تالکین خیلی ساده با نسبت دادن سن زیاد به آراگورن او را آخرین مح مد جا می زند برای مخاطبان ماسلم ولی واقعیت این است که اوضاع کاملا متفاوت است. اگر به دقت نگاه کنیم، شخصی که در داستان غیبت دارد سائورون است. تک آی را در فیلم ها به خاطر دارید؟ به هیچ وجه این ساین، نماد میسونها نیست. طبق جست و جوهایمان در بخشی از سلام د لاست گاردین می گویم السَّلامُ عَلَیْکَ یَا عَیْنَ اللّهِ فِی خَلْقِهِ. یکی از باورهای عمیق چیعه این است که کارهایشان به ایمام تایمشان داده می شود و او ناظر بر آنهاست. اگر به این شکل نگاه کنیم، آراگورن منجی بنی جیکوب و به طور دقیقتر نماد فرمانرواییِ البیس بر زمین است، در کارتون I p****et g?? oat 2 می توان رد مستقیم این ادعا را دید. اصولا القای این مفاهیم به کسانی که فیلمها یا کتابها را دیده اند خیلی سخت است زیرا نسبت به آثار حب قلبی دارند و سعی نخواهد شد که عقایدی تحمیل شود؛ با این حال، برای اطمینان از تکمیل بحث، چرا نام منطقه سرزمین میانه بود؟ سرزمین میانه یا خاور میانه محلی است که ادیان گادی در آنجا به دست مردم رسیده است. از سویی، غنی ترین منابع فسیلی و معدنی کره زمین در این ناحیه قرار دارد. هر کس قدرت را در این ناحیه در دست داشته باشد، ذهنها و ثروت را کنترل می کند.
زمانی بود که خیلی ها می گفتند به جکسون ارتباطی ندارد. زمانی که فیلم هابیت ساخته شد، این ادعا کاملا رد شد. ارگی که منجیِ کوتوله ها را کشت به خاطر دارید؟ یکی از دستانش شمشیر بود. شمشیر چند لبه داشت؟ هرگاه در چوب جادو شمشیری دو لبه دیدید به یاد ذوالف** قار بیافتید. این موضوع در فیلمِ message که ما با نام محمد رسول الله (ص) می شناسیم، کد شده بود. در این فیلم فِرست ایم آم با شمشیری دو لبه به مبارزه می رفت. در آن فیلم از آن نماد استفاده کردند که بعدها در سایر آثار به این شکل چیعه را کد کنند. به عنوان نکته جانبی، در همین فیلم message یکی از نکاتی که معمولا در نظر گرفته نمی شود این است که فیلم تحریف تاریخی ندارد، فراموشیِ تاریخی دارد. بیش از هشتاد درصدِ نبردهای آخرین نبی با بروبچ یعقوب بوده است ولی در این فیلم اصلا به این نبردها اشاره نمی شود.
شاید بعدا قسمت نهایی را برای این سری از نوشتار نوشتیم.
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نیوز
معرفی وبسایت
احتمالا اگر زمانی تمایل داشته اید که از چت جی پی تی استفاده کنید، با مراجعه به وبسایت مربوطه و ثبت نام مورد نیاز و این واقعیت که آندر سنکشن هستیم کمی ناامید شده باشید. یکی از وبسایت هایی که مدل زبانی جالبی را ارایه می دهد و واقعا جوابهایش حیرت انگیز است، وبسایت پرپلکسیتی است. اگر نیاز به دانستن زمینه های متفاوت یادگیری دارید، از این بات سوال بپرسید. جوابهای فوق العاده ای می دهد 😉
https://www.perplexity.ai/
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
احتمالا اگر زمانی تمایل داشته اید که از چت جی پی تی استفاده کنید، با مراجعه به وبسایت مربوطه و ثبت نام مورد نیاز و این واقعیت که آندر سنکشن هستیم کمی ناامید شده باشید. یکی از وبسایت هایی که مدل زبانی جالبی را ارایه می دهد و واقعا جوابهایش حیرت انگیز است، وبسایت پرپلکسیتی است. اگر نیاز به دانستن زمینه های متفاوت یادگیری دارید، از این بات سوال بپرسید. جوابهای فوق العاده ای می دهد 😉
https://www.perplexity.ai/
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
به تازگی Martin Riedmiller مقاله بسیار مهمی را به چاپ رسانده که نشان می دهد چگونه از روش AC می توان برای مدلهای بزرگ استفاده کرد. خواندن مقاله را توصیه می کنیم. قبلا اشاره کرده بودیم که استفاده از مدلهای زبانی در یادگیری تقویتی در حال گسترش است. از بابت پرپارامتر بودن نگران نباشید. می توان با فریز کردن تا حدود زیادی دانش این شبکه ها را انتقال داد. از سویی به تازگی مشاهده کرده ایم که ظاهرا کولب وی رم پانزده گیگی به صورت رایگان در اختیار کاربران قرار می دهد که خبر خوبی است.
Offline Actor-Critic Reinforcement Learning Scales to Large Models
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
Offline Actor-Critic Reinforcement Learning Scales to Large Models
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
استفاده از یادگیری عمیق در پروژه های تجاری - بخش ۲۷
یکی از مواردی که در آموزش مدلهای یادگیری بسیار با اهمیت است، استفاده از کامپیوترهای SIMD به خصوص GPUها برای شبکه های عصبی است. معمولا در شرکتها خیلی به مدل کارت گرافیک و بروز بودنش اهمیت داده میشود. با این حال، معمولا نکته ای که در نظر گرفته نمی شود، سایز VRAM کارت گرافیک است. احتمالا با این مشکل زیاد برخورد کرده باشید که شبکه های تبدیل کننده بعضا تنسورهایی با رنک هفت ایجاد می کنند و مدلهایشان به دلیل محاسبات میانی در حافظه کارت گرافیک جا نمی شوند. توصیه ای که داریم اگر بودجه تهیه یک سیستم برای آموزش شبکه عصبی دارید، خیلی به حافظه کارت گرافیک توجه کنید. به زبان ساده، ۴۰۹۰ ای که در لپتاپها معمولا استفاده می شود ۱۲ گیگ حافظه دارد. ۱۲ گیگ حافظه بسیار محدودی است و صادقانه بخواهیم بگوییم، مدل های نسلهای قبل با VRAM با اندازه ۱۶ گیگ را ترجیح می دهیم. زیرا مدل باید اول در حافظه جا شود تا بعد آموزش ببیند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
یکی از مواردی که در آموزش مدلهای یادگیری بسیار با اهمیت است، استفاده از کامپیوترهای SIMD به خصوص GPUها برای شبکه های عصبی است. معمولا در شرکتها خیلی به مدل کارت گرافیک و بروز بودنش اهمیت داده میشود. با این حال، معمولا نکته ای که در نظر گرفته نمی شود، سایز VRAM کارت گرافیک است. احتمالا با این مشکل زیاد برخورد کرده باشید که شبکه های تبدیل کننده بعضا تنسورهایی با رنک هفت ایجاد می کنند و مدلهایشان به دلیل محاسبات میانی در حافظه کارت گرافیک جا نمی شوند. توصیه ای که داریم اگر بودجه تهیه یک سیستم برای آموزش شبکه عصبی دارید، خیلی به حافظه کارت گرافیک توجه کنید. به زبان ساده، ۴۰۹۰ ای که در لپتاپها معمولا استفاده می شود ۱۲ گیگ حافظه دارد. ۱۲ گیگ حافظه بسیار محدودی است و صادقانه بخواهیم بگوییم، مدل های نسلهای قبل با VRAM با اندازه ۱۶ گیگ را ترجیح می دهیم. زیرا مدل باید اول در حافظه جا شود تا بعد آموزش ببیند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#نکته_آموزشی #یادگیری_عمیق #شبکه_عصبی #مثالهای_کاربردی #پروژه_تجاری
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
پیش از این به کاربردهای فراوان یادگیری تقویتی چند عامله اشاره کرده بودیم. اخیرا مقاله جالبی چاپ شده که کاربرد این عاملها برای IoT را نشان میدهد. معمولا چاپ مقالات در زمینه هایی که ارتباط چند شاخه مختلف و پرکاربرد را نشان می دهند کمی ساده تر است. این زمینه را برای دانشجویان ارشد پیشنهاد می دهیم. مقاله برای همین امسال است و مطالعه آن برای علاقه مندان این حوزه توصیه می شود.
A Multi-Agents Deep Reinforcement Learning Autonomous Security Management Approach for Internet of Things
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
A Multi-Agents Deep Reinforcement Learning Autonomous Security Management Approach for Internet of Things
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #یادگیری_تقویتی #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
بسیار خوب! یکی از گونههای یادگیری که تقریبا به آن چندان نپرداختهایم، مدلهای دیفیوژن هستند. مقالهی مروری بسیار مهمی را در این زمینه با نام Diffusion Models in Vision: A Survey معرفی میکنیم که بسیار کاربردی است و مطالب این حوزه را به خوبی پوشش داده است. اگر به مدلهای مولد علاقهمند هستید، این زمینه را برای کار در ارشد و دکتری بسیار توصیه میکنیم.
Denoising diffusion models represent a recent emerging topic in computer vision, demonstrating remarkable results in the area of generative modeling. A diffusion model is a deep generative model that is based on two stages, a forward diffusion stage and a reverse diffusion stage. In the forward diffusion stage, the input data is gradually perturbed over several steps by adding Gaussian noise. In the reverse stage, a model is tasked at recovering the original input data by learning to gradually reverse the diffusion process, step by step. Diffusion models are widely appreciated for the quality and diversity of the generated samples, despite their known computational burdens, i.e. low speeds due to the high number of steps involved during sampling. In this survey, we provide a comprehensive review of articles on denoising diffusion models applied in vision, comprising both theoretical and practical contributions in the field. First, we identify and present three generic diffusion modeling frameworks, which are based on denoising diffusion probabilistic models, noise conditioned score networks, and stochastic differential equations. We further discuss the relations between diffusion models and other deep generative models, including variational auto-encoders, generative adversarial networks, energy-based models, autoregressive models and normalizing flows. Then, we introduce a multi-perspective categorization of diffusion models applied in computer vision. Finally, we illustrate the current limitations of diffusion models and envision some interesting directions for future research.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Denoising diffusion models represent a recent emerging topic in computer vision, demonstrating remarkable results in the area of generative modeling. A diffusion model is a deep generative model that is based on two stages, a forward diffusion stage and a reverse diffusion stage. In the forward diffusion stage, the input data is gradually perturbed over several steps by adding Gaussian noise. In the reverse stage, a model is tasked at recovering the original input data by learning to gradually reverse the diffusion process, step by step. Diffusion models are widely appreciated for the quality and diversity of the generated samples, despite their known computational burdens, i.e. low speeds due to the high number of steps involved during sampling. In this survey, we provide a comprehensive review of articles on denoising diffusion models applied in vision, comprising both theoretical and practical contributions in the field. First, we identify and present three generic diffusion modeling frameworks, which are based on denoising diffusion probabilistic models, noise conditioned score networks, and stochastic differential equations. We further discuss the relations between diffusion models and other deep generative models, including variational auto-encoders, generative adversarial networks, energy-based models, autoregressive models and normalizing flows. Then, we introduce a multi-perspective categorization of diffusion models applied in computer vision. Finally, we illustrate the current limitations of diffusion models and envision some interesting directions for future research.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معمولا یکی از ضعفهای بسیاری از دانشجویان در مواجه با مفاهیم یادگیری، عدم توانایی در تصور محاسبات در جبر خطی است. یکی از وبسایتهای جالبی که در این حوزه وجود دارد و درک عمیقی از محاسبات جبری ارایه میدهد، وبسایت MathIsFun است که بخشهای متنوع فراوانی دارد. برای مثال در این لینک نویسندگان جدای از محاسبات، درک بصری روشنی از انجام ضربداخلی ارایه کردهاند. اما مطالب این وبسایت به اینجا ختم نمیشود. میتوانید مطالب متنوعی نظیر نظریهی بازیها و مطالبی مشابه را نیز به روشهای جالب این وبسایت فرابگیرید.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_وبسایت #معرفی_منبع
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Mathsisfun
Dot Product
A vector has magnitude (how long it is) and direction ... Here are two vectors
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
سلام، بعد از مدتی دوری و رخدادن اتفاقات مختلف، مجدد مطالبی را ذکر میکنیم و به روال عادی بازمیگردیم و برای مدتی طولانی در مورد پالتیک حرف نمیزنیم. اول از همه به اللکششن یو اس اشاره میکنیم که چندماه دیگر برگزار میشود و پس از دراپشدن مشکوک چاپر پریویس پرزیدنت آیرون، بالاخره ما با اونها کووردینیت شدیم. اول از همه چندتا پیشبینی میکنیم با توجه به شرایط فعلی اینجا و اونجا. اگر به خاطر داشتهباشید، چهار سال پیش شانس صنننندددرز در کندیدیتی بسیار بیشتر از فایدن بود ولی بدلیل یکی از اظهاراتش که اشاره کرده بود باید جنیساید در پالاستین به پایان برسد و مستقلشوند، شانسش را کاملا از دستداد. در حال حاضر همانطور که شاید بدانید شانس توروپ خیلی زیاد است و استیتهای سوینگگ ووتشان به سمت قرمزها برگشته و تقابل مجدد چپیهای آیرون با راستیهای یو اس مجدد شکل خواهد گرفت. هرچند بعید است ولی لازم است اشاره کنیم که حریص (!) هم فرد بهشدت هاردلاینری نظیر لیدی چیلینتون است. بدلیل نشنالیتیی همسرش هم وابسته به ز ااا! یونیس ها است. در این مدت اتفاقات مختلفی افتاد که بسیار سخت است به همه پرداخته شود ولی به مواردی اشاره میکنیم. در جایی که بچههای یعقوپ برای خود برداشتهاند، اوضاع ناآرام است و احتمالا بدانید که آن ناحیه برای جو ییش پیپل، کریسچنها و زالونیستها بسیار مقدس است. با توجه به اتفاقاتی که رخداده دو احتمال وجود دارد. شعاع وار افزایش پیداکند یا اینکه بورد فعلی جاهو کلهپا شود و مثل سالها قبل که شششاارون کیلر جنگی شناخته شد، تمامی تقصیرها روی جاهو حواله شوند و ملت همیشه مظلوم زالونیست مظلومتر شناخته شوند. چند هشدار میدهیم زیرا از نفوذشاین در آیرون خبر داریم. اعتقادی زالونیستها دارند و آن این است که همه جز خودشان حیوان هستند و به همین دلیل بهراحتی کودک کیل میکنند. در همین یو اسش هم که با چندتاشون صحبت که کردهبودیم که این بایاس مغزی بهشدت ریشیست است با کمال تعجب با جواب یکسان گاد اینطور خواسته روبهرو شدیم. برامون جالبه که اگر عحد اطیغغه را خوانده باشید جایی هست که همون گاد با جی کوب پرافیت کشتی میگیره و میبازه. به هر حال اشاره میکنیم. دوسال پیش که همه رو توی آیرون توی جون هم انداختند را به خاطر بیاورید. ایمیجی که از مرحوم امم ین یی منتشر شد را ریپرتر نیوزپیپر شرقی در اآیرون منتشر کرد. باس این نیوزپیپر سابقا فامیلیش کهن بوده بعد عوض کرده. ادامه نمیدیم خودتون برید ببینید کیه. این که دیده میشه در اونجا جناب بیوتیفول کلام از پرچم مثلثهای متقاطع میپره بدانید که منفعتی داره و کورکورانه قبول نکنید. اگر اونجا دستار به سرها کچلتون کردن با مواردی اینجا هم دقیقا با مظلومیت و گوگولی مگولی بودن قوم جیکوب کچل کردن همه رو. هر چی هم جنساید شه به ورلد وار قبلی اشاره میشه. پیش بینی میکنیم ماسک گنبد سبزه که اولین سمت نما ز بود رو خودشون بزنن و به جاش حیییکل سولومون رو درست کنن و توی اون اگر فرصت کنند گیت معروفشون رو راه بندازن که محل ورودی ... است. مورد بعدی که اشاره میکنیم اینکه دث پرزیدنت به شدت مشکوک بود. جدای اینکه اون فرد قرار بود لیدر فیوچر آیرون باشه، تاریخی که اون اتفاق افتاد توی سری انیمیشنی کد شده بود و جناب ماسک هم تووییت مشکوکی زده بود قبلتر. کسانی که قبلهشون جناب ماسک هستش لازمه یک نکتهای رو بدونن که بی خود نمیآ د در مورد آیرون افاضات کنه. حتما این مورد را بررسی کنید. صاحب تسلا چند سال پیش سرمایهگذاری کرد که یکی از کانتریهای اومریکای چنوبی سقوط کنه چون یکی از بزرگترین ذخایر معدنی رو داشت که ماسک در تسلا به آن نیاز داشت. بعد از اینکه کلهپا کردن، جناب توییت ززدن با این مضمون که هرکاری بخوام باهاتون میکنم. حالا کانتری آیرون که بیشترین اویل و گز یونیورس رو داره، محل اتصال سه کانتیننت به هم هستش چون بالا پایینش دریاست و وسعت زیادی داره و از همه مهمتر زالونیستتها مثل سگ میترسن ازش چون توی پیشگویییهای بوکشون اومده که با ما دیستروی میشن مثل یه خار توی چشمشون هستش. از اون جایی که هیچکی تاریخ نمیخونه تو آیرون برید ببینید و بگرددید چطوری آیرن کوچیک شدش. چرا مونگولها یا اسکاندر به آیرون اتک زدن. از اون نهنگ میخواستن کاری کنن که سوسک هم نمونه چه برسه به گربه. پروفسور ناصر سیبیل که یه کله کل افگانستان را داد رفت کمی جغرافیا نمیدانست که ببینید اونجا با چاینا بوردر مشترک دارد. همین حالا میگوییم. هدف کلا پول هستش. قرار است پاور از قرروب جغرافیا به شرووغ جوقراقیا برود و چاینا به آیرون برای راه زمینی نیاز دارد. به همین خاطر دو سال پیش نه تنها آیرون بلکه کل مسیر رود افریشم از داخل به هم پاشیده بودند. وسعت آیرون دلیل اصلی این بود که چرج جوش به آیرون اتک نزد بیست سال قبل. نمیدانیم. شاید بعدها بیشتر نوشتیم.
ــــــــــ
#نیوز
ــــــــــ
#نیوز
Call for Papers
Transformer-based models have emerged as a cornerstone of modern artificial intelligence (AI), reshaping the landscape of machine learning and driving unprecedented progress in a myriad of tasks. Originating from the domain of natural language processing, transformers have transcended their initial applications to become ubiquitous across diverse fields including anomaly detection, computer vision, speech recognition, recommender systems, question answering, robotics, healthcare, education, and more. The impact of transformer models extends far beyond their technical intricacies. For instance, advanced transformers have been successfully applied to multimodal learning tasks, where they can seamlessly integrate information from different modalities such as text, images, audio, and video. This ability opens up new avenues for research in areas like visual question answering, image captioning, and video understanding.
https://dl.acm.org/pb-assets/static_journal_pages/tist/pdf/ACM-TIST-CFP-SI-Transformers.pdf
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Transformer-based models have emerged as a cornerstone of modern artificial intelligence (AI), reshaping the landscape of machine learning and driving unprecedented progress in a myriad of tasks. Originating from the domain of natural language processing, transformers have transcended their initial applications to become ubiquitous across diverse fields including anomaly detection, computer vision, speech recognition, recommender systems, question answering, robotics, healthcare, education, and more. The impact of transformer models extends far beyond their technical intricacies. For instance, advanced transformers have been successfully applied to multimodal learning tasks, where they can seamlessly integrate information from different modalities such as text, images, audio, and video. This ability opens up new avenues for research in areas like visual question answering, image captioning, and video understanding.
https://dl.acm.org/pb-assets/static_journal_pages/tist/pdf/ACM-TIST-CFP-SI-Transformers.pdf
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#اطلاع_رسانی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
مقالهی KAN اخیرا بسیار سروصدا کرده و خواندن آن را به شدت توصیه میکنیم. این زمینه را برای موضوع دکتری توصیه میکنیم.
Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes (“neurons”), KANs have learnable activation functions on edges (“weights”). KANs have no linear weights at all – every weight parameter is replaced by a univariate function parametrized as a spline. We show that this seemingly simple change makes KANs outperform MLPs in terms of accuracy and interpretability. For accuracy, much smaller KANs can achieve comparable or better accuracy than much larger MLPs in data fitting and PDE solving. Theoretically and empirically, KANs possess faster neural scaling laws than MLPs. For interpretability, KANs can be intuitively visualized and can easily interact with human users. Through two examples in mathematics and physics, KANs are shown to be useful “collaborators” helping scientists (re)discover mathematical and physical laws. In summary, KANs are promising alternatives for MLPs, opening opportunities for further improving today’s deep learning models which rely heavily on MLPs.
https://arxiv.org/html/2404.19756v1
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Inspired by the Kolmogorov-Arnold representation theorem, we propose Kolmogorov-Arnold Networks (KANs) as promising alternatives to Multi-Layer Perceptrons (MLPs). While MLPs have fixed activation functions on nodes (“neurons”), KANs have learnable activation functions on edges (“weights”). KANs have no linear weights at all – every weight parameter is replaced by a univariate function parametrized as a spline. We show that this seemingly simple change makes KANs outperform MLPs in terms of accuracy and interpretability. For accuracy, much smaller KANs can achieve comparable or better accuracy than much larger MLPs in data fitting and PDE solving. Theoretically and empirically, KANs possess faster neural scaling laws than MLPs. For interpretability, KANs can be intuitively visualized and can easily interact with human users. Through two examples in mathematics and physics, KANs are shown to be useful “collaborators” helping scientists (re)discover mathematical and physical laws. In summary, KANs are promising alternatives for MLPs, opening opportunities for further improving today’s deep learning models which rely heavily on MLPs.
https://arxiv.org/html/2404.19756v1
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_مقاله #معرفی_منبع #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
احتمالا دیده باشید که در این چند سال، مدلهای زبانی بسیار در کدزنی کاربرد پیدا کردهاند. یکی از extensionهای بسیار کاربردی برای vscode، اکستنشن
https://marketplace.visualstudio.com/items?itemName=sourcegraph.cody-ai
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_ابزار
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
cody
است که علاوه بر چت، قابلیت پیشنهاد کد و auto-complete با تب را فراهم میکند. استفاده از این extension زمان کدزنی را به طرز چشمگیری کاهش میدهد. https://marketplace.visualstudio.com/items?itemName=sourcegraph.cody-ai
ــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#معرفی_ابزار
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
Visualstudio
Cody: AI Coding Assistant with Autocomplete & Chat - Visual Studio Marketplace
Extension for Visual Studio Code - AI coding assistant that uses search and codebase context to help you write code faster. Cody brings autocomplete, chat, and commands to VS Code, so you can generate code, write unit tests, create docs, and explain complex…
راهنمایی در مورد هستههای CUDA و حافظهی ویدیویی (VRAM)
هستههای کودا، واحدهای پردازشی موازی در کارتهای گرافیک انویدیا هستند که برای محاسبات عمومی طراحی شدهاند. این هستهها قادرند چندین وظیفه را به طور همزمان انجام دهند و برای پردازش موازی بهینه شدهاند.
حافظه ویدیویی یا VRAM، حافظه اختصاصی پرسرعتی است که توسط کارت گرافیک استفاده میشود. این حافظه دادههای مربوط به گرافیک را به طور موقت ذخیره میکند و ظرفیت آن بر توانایی کارت گرافیک در پردازش تأثیر میگذارد.
ارتباط بین هستههای CUDA و VRAM
هستههای کودا و حافظه ویدیویی هر دو برای عملکرد کارت گرافیک مهم هستند، اما ارتباط مستقیمی از نظر اندازه یا تعداد ندارند. هستههای کودا دادهها را پردازش میکنند، در حالی که حافظه ویدیویی آنها را ذخیره میکند. عملکرد بهینه کارت گرافیک به تعادل مناسب بین این دو عنصر بستگی دارد و این تعادل بر اساس نوع کاربرد متفاوت است. در اینجا نحوه تعامل آنها را شرح میدهیم:
۱. عملکرد مکمل: هستههای CUDA دادهها را پردازش میکنند، در حالی که VRAM آنها را ذخیره میکند. تعداد بیشتر هستههای CUDA میتواند دادهها را سریعتر پردازش کند، اما آنها نیاز به VRAM کافی برای نگهداری دادهها دارند.
۲. تعادل عملکرد: کارت گرافیکی با تعداد زیادی هسته CUDA اما VRAM محدود ممکن است در وظایفی که نیاز به دادههای زیادی دارند دچار مشکل شود، در حالی که کارت گرافیکی با VRAM زیاد اما هستههای CUDA کم ممکن است دادههای بیشتری را ذخیره کند اما آنها را کندتر پردازش کند.
۳. اهمیت وابسته به وظیفه: برای برخی وظایف، مانند کار با مدلهای بزرگ یادگیری عمیق، داشتن VRAM بیشتر ممکن است مهمتر از داشتن هستههای CUDA بیشتر باشد.
۴. مقیاسپذیری: به طور کلی، کارتهای گرافیک پیشرفتهتر تمایل دارند که هم هستههای CUDA بیشتر و هم VRAM بیشتری داشته باشند، اما نسبت بین آنها ثابت نیست و بین مدلها و نسلهای مختلف کارت گرافیک متفاوت است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
هستههای کودا، واحدهای پردازشی موازی در کارتهای گرافیک انویدیا هستند که برای محاسبات عمومی طراحی شدهاند. این هستهها قادرند چندین وظیفه را به طور همزمان انجام دهند و برای پردازش موازی بهینه شدهاند.
حافظه ویدیویی یا VRAM، حافظه اختصاصی پرسرعتی است که توسط کارت گرافیک استفاده میشود. این حافظه دادههای مربوط به گرافیک را به طور موقت ذخیره میکند و ظرفیت آن بر توانایی کارت گرافیک در پردازش تأثیر میگذارد.
ارتباط بین هستههای CUDA و VRAM
هستههای کودا و حافظه ویدیویی هر دو برای عملکرد کارت گرافیک مهم هستند، اما ارتباط مستقیمی از نظر اندازه یا تعداد ندارند. هستههای کودا دادهها را پردازش میکنند، در حالی که حافظه ویدیویی آنها را ذخیره میکند. عملکرد بهینه کارت گرافیک به تعادل مناسب بین این دو عنصر بستگی دارد و این تعادل بر اساس نوع کاربرد متفاوت است. در اینجا نحوه تعامل آنها را شرح میدهیم:
۱. عملکرد مکمل: هستههای CUDA دادهها را پردازش میکنند، در حالی که VRAM آنها را ذخیره میکند. تعداد بیشتر هستههای CUDA میتواند دادهها را سریعتر پردازش کند، اما آنها نیاز به VRAM کافی برای نگهداری دادهها دارند.
۲. تعادل عملکرد: کارت گرافیکی با تعداد زیادی هسته CUDA اما VRAM محدود ممکن است در وظایفی که نیاز به دادههای زیادی دارند دچار مشکل شود، در حالی که کارت گرافیکی با VRAM زیاد اما هستههای CUDA کم ممکن است دادههای بیشتری را ذخیره کند اما آنها را کندتر پردازش کند.
۳. اهمیت وابسته به وظیفه: برای برخی وظایف، مانند کار با مدلهای بزرگ یادگیری عمیق، داشتن VRAM بیشتر ممکن است مهمتر از داشتن هستههای CUDA بیشتر باشد.
۴. مقیاسپذیری: به طور کلی، کارتهای گرافیک پیشرفتهتر تمایل دارند که هم هستههای CUDA بیشتر و هم VRAM بیشتری داشته باشند، اما نسبت بین آنها ثابت نیست و بین مدلها و نسلهای مختلف کارت گرافیک متفاوت است.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
معمولا بدلیل اینکه بچههای هوش بیشتر مقالات و کتابها را بررسی میکنند، ضعف در listening انگلیسی دارند. یکی از قابلیتهای chrome این است که میتوان در آن فایلهای ویدیوی لوکال را با زیرنویس دید. برای این منظور لازم است ویدیوی لوکال را در chrome باز کنید که با درگ اند دراپ یا فایل اکسپلورر کروم قابل انجام است. در ادامه لازم است یکبار تنظیماتی که ذکر میکنیم را انجام دهید تا زیرنویس به صورت لایو تولید شود. به صورت دقیقتر کروم دارای یک ویژگی داخلی به نام زیرنویس زنده است که به طور خودکار برای رسانههای دارای صدا، زیرنویس تولید میکند.
نحوه فعالسازی:
به تنظیمات کروم بروید.
روی بخش Advanced کلیک کنید، سپس به Accessibility بروید.
گزینه Live Caption را فعال کنید. 😉
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
نحوه فعالسازی:
به تنظیمات کروم بروید.
روی بخش Advanced کلیک کنید، سپس به Accessibility بروید.
گزینه Live Caption را فعال کنید. 😉
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
استفاده از RAG در یادگیری عمیق: ترکیب بازیابی اطلاعات و تولید متن
مدلهای Retrieval-Augmented Generation (RAG) یکی از پیشرفتهای اخیر در حوزه پردازش زبان طبیعی و یادگیری عمیق است که توانایی مدلهای زبانی بزرگ (LLM) را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد به مدلها اجازه میدهد تا پاسخهای دقیقتر، بهروزتر و قابل اعتمادتری تولید کنند.
مفهوم اصلی RAG
مدل RAG از دو بخش اصلی تشکیل شده است. بخش بازیابی (Retrieval) که اطلاعات مرتبط را از منابع خارجی بازیابی میکند و بخش تولید (Generation) که از یک مدل زبانی برای تولید پاسخ با استفاده از اطلاعات بازیابی شده استفاده میکند. این رویکرد به مدلها اجازه میدهد تا به جای اتکا صرف به دانش ذاتی خود، از منابع خارجی برای پاسخگویی استفاده کنند.
مزایای استفاده از RAG
- دقت بالاتر: با استفاده از منابع خارجی، مدل میتواند اطلاعات دقیقتر و بهروزتری ارائه دهد.
- شفافیت: منابع استفاده شده قابل ردیابی هستند، که به افزایش اعتماد کاربران کمک میکند.
- بهروزرسانی آسان: اطلاعات جدید را میتوان بدون نیاز به بازآموزی کامل مدل اضافه کرد.
- کاهش خطای توهم: احتمال تولید اطلاعات نادرست توسط مدل کاهش مییابد.
نحوه عملکرد RAG
- دریافت پرسش: سیستم پرسش کاربر را دریافت میکند.
- بازیابی اطلاعات: با استفاده از تکنیکهای بازیابی اطلاعات، منابع مرتبط از پایگاه داده بازیابی میشوند.
- ترکیب اطلاعات: اطلاعات بازیابی شده با پرسش اصلی ترکیب میشوند.
- تولید پاسخ: مدل زبانی با استفاده از اطلاعات ترکیب شده، پاسخ نهایی را تولید میکند.
چالشهای RAG
- انتخاب منابع مناسب: انتخاب و مدیریت منابع اطلاعاتی مناسب و بهروز چالشبرانگیز است.
- هماهنگی بین بازیابی و تولید: ایجاد تعادل بین دقت بازیابی و کیفیت تولید متن مهم است.
- مدیریت حجم داده: با افزایش حجم دادهها، مدیریت و بازیابی سریع اطلاعات پیچیدهتر میشود.
کاربردهای RAG در یادگیری عمیق
- سیستمهای پرسش و پاسخ: برای ارائه پاسخهای دقیقتر به سوالات کاربران.
- چتباتهای هوشمند: برای بهبود توانایی چتباتها در ارائه اطلاعات دقیق و بهروز.
- خلاصهسازی متون: برای تولید خلاصههای دقیقتر با استناد به منابع اصلی.
- تولید محتوا: برای ایجاد محتوای غنیتر و مستندتر در حوزههای مختلف.
پیادهسازی RAG
برای پیادهسازی RAG، معمولاً از ترکیب چند تکنولوژی استفاده میشود:
- پایگاه داده برداری: برای ذخیره و بازیابی سریع اطلاعات.
- مدلهای Embedding: برای تبدیل متن به بردارهای عددی قابل جستجو.
- الگوریتمهای بازیابی اطلاعات: مانند روش Approximate Nearest Neighbor (ANN) برای یافتن مرتبطترین اطلاعات.
- مدلهای زبانی بزرگ: مانند GPT یا BERT برای تولید متن نهایی.
مثالهایی از کاربرد RAG در دنیای واقعی
- سیستمهای پشتیبانی مشتری: برای ارائه پاسخهای دقیق و سازگار با سیاستهای شرکت.
- موتورهای جستجوی پیشرفته: برای ارائه نتایج جستجوی غنیتر و مرتبطتر.
- سیستمهای آموزشی هوشمند: برای ارائه توضیحات شخصیسازی شده به دانشآموزان.
- ابزارهای تحقیق و توسعه: برای کمک به محققان در یافتن و ترکیب اطلاعات از منابع مختلف.
آینده RAG
با پیشرفت فناوری، انتظار میرود که RAG در آینده توسعه بیشتری یابد که میتوان به موارد زیر اشاره کرد.
- بهبود الگوریتمهای بازیابی: برای یافتن دقیقتر و سریعتر اطلاعات مرتبط.
- ترکیب با سایر تکنیکهای هوش مصنوعی: مانند یادگیری تقویتی برای بهبود عملکرد.
- گسترش به حوزههای چندرسانهای: استفاده از RAG برای تحلیل و تولید محتوای تصویری و صوتی.
- بهبود مقیاسپذیری: برای استفاده در سیستمهای بزرگتر با حجم داده بیشتر.
روش RAG یک گام مهم در توسعه سیستمهای هوش مصنوعی است که توانایی مدلهای زبانی را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد نه تنها دقت و اعتبار پاسخهای تولید شده را افزایش میدهد، بلکه امکان بهروزرسانی مداوم دانش سیستم را نیز فراهم میکند. با ادامه پیشرفتها در این زمینه، انتظار میرود که RAG نقش مهمی در آینده پردازش زبان طبیعی و یادگیری عمیق ایفا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #RAG #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
مدلهای Retrieval-Augmented Generation (RAG) یکی از پیشرفتهای اخیر در حوزه پردازش زبان طبیعی و یادگیری عمیق است که توانایی مدلهای زبانی بزرگ (LLM) را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد به مدلها اجازه میدهد تا پاسخهای دقیقتر، بهروزتر و قابل اعتمادتری تولید کنند.
مفهوم اصلی RAG
مدل RAG از دو بخش اصلی تشکیل شده است. بخش بازیابی (Retrieval) که اطلاعات مرتبط را از منابع خارجی بازیابی میکند و بخش تولید (Generation) که از یک مدل زبانی برای تولید پاسخ با استفاده از اطلاعات بازیابی شده استفاده میکند. این رویکرد به مدلها اجازه میدهد تا به جای اتکا صرف به دانش ذاتی خود، از منابع خارجی برای پاسخگویی استفاده کنند.
مزایای استفاده از RAG
- دقت بالاتر: با استفاده از منابع خارجی، مدل میتواند اطلاعات دقیقتر و بهروزتری ارائه دهد.
- شفافیت: منابع استفاده شده قابل ردیابی هستند، که به افزایش اعتماد کاربران کمک میکند.
- بهروزرسانی آسان: اطلاعات جدید را میتوان بدون نیاز به بازآموزی کامل مدل اضافه کرد.
- کاهش خطای توهم: احتمال تولید اطلاعات نادرست توسط مدل کاهش مییابد.
نحوه عملکرد RAG
- دریافت پرسش: سیستم پرسش کاربر را دریافت میکند.
- بازیابی اطلاعات: با استفاده از تکنیکهای بازیابی اطلاعات، منابع مرتبط از پایگاه داده بازیابی میشوند.
- ترکیب اطلاعات: اطلاعات بازیابی شده با پرسش اصلی ترکیب میشوند.
- تولید پاسخ: مدل زبانی با استفاده از اطلاعات ترکیب شده، پاسخ نهایی را تولید میکند.
چالشهای RAG
- انتخاب منابع مناسب: انتخاب و مدیریت منابع اطلاعاتی مناسب و بهروز چالشبرانگیز است.
- هماهنگی بین بازیابی و تولید: ایجاد تعادل بین دقت بازیابی و کیفیت تولید متن مهم است.
- مدیریت حجم داده: با افزایش حجم دادهها، مدیریت و بازیابی سریع اطلاعات پیچیدهتر میشود.
کاربردهای RAG در یادگیری عمیق
- سیستمهای پرسش و پاسخ: برای ارائه پاسخهای دقیقتر به سوالات کاربران.
- چتباتهای هوشمند: برای بهبود توانایی چتباتها در ارائه اطلاعات دقیق و بهروز.
- خلاصهسازی متون: برای تولید خلاصههای دقیقتر با استناد به منابع اصلی.
- تولید محتوا: برای ایجاد محتوای غنیتر و مستندتر در حوزههای مختلف.
پیادهسازی RAG
برای پیادهسازی RAG، معمولاً از ترکیب چند تکنولوژی استفاده میشود:
- پایگاه داده برداری: برای ذخیره و بازیابی سریع اطلاعات.
- مدلهای Embedding: برای تبدیل متن به بردارهای عددی قابل جستجو.
- الگوریتمهای بازیابی اطلاعات: مانند روش Approximate Nearest Neighbor (ANN) برای یافتن مرتبطترین اطلاعات.
- مدلهای زبانی بزرگ: مانند GPT یا BERT برای تولید متن نهایی.
مثالهایی از کاربرد RAG در دنیای واقعی
- سیستمهای پشتیبانی مشتری: برای ارائه پاسخهای دقیق و سازگار با سیاستهای شرکت.
- موتورهای جستجوی پیشرفته: برای ارائه نتایج جستجوی غنیتر و مرتبطتر.
- سیستمهای آموزشی هوشمند: برای ارائه توضیحات شخصیسازی شده به دانشآموزان.
- ابزارهای تحقیق و توسعه: برای کمک به محققان در یافتن و ترکیب اطلاعات از منابع مختلف.
آینده RAG
با پیشرفت فناوری، انتظار میرود که RAG در آینده توسعه بیشتری یابد که میتوان به موارد زیر اشاره کرد.
- بهبود الگوریتمهای بازیابی: برای یافتن دقیقتر و سریعتر اطلاعات مرتبط.
- ترکیب با سایر تکنیکهای هوش مصنوعی: مانند یادگیری تقویتی برای بهبود عملکرد.
- گسترش به حوزههای چندرسانهای: استفاده از RAG برای تحلیل و تولید محتوای تصویری و صوتی.
- بهبود مقیاسپذیری: برای استفاده در سیستمهای بزرگتر با حجم داده بیشتر.
روش RAG یک گام مهم در توسعه سیستمهای هوش مصنوعی است که توانایی مدلهای زبانی را با قدرت بازیابی اطلاعات ترکیب میکند. این رویکرد نه تنها دقت و اعتبار پاسخهای تولید شده را افزایش میدهد، بلکه امکان بهروزرسانی مداوم دانش سیستم را نیز فراهم میکند. با ادامه پیشرفتها در این زمینه، انتظار میرود که RAG نقش مهمی در آینده پردازش زبان طبیعی و یادگیری عمیق ایفا کند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #RAG #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
شبکههای عصبی عمیق اسپایکینگ
شبکههای عصبی عمیق اسپایکینگ (SNNs) یک پارادایم پیشرفته در معماریهای شبکههای عصبی هستند که از فرآیندهای بیولوژیکی مغز انسان الهام گرفتهاند. بر خلاف شبکههای عصبی عمیق سنتی (DNNs) که از سیگنالهای پیوسته استفاده میکنند، SNNها از رویدادهای گسستهای به نام اسپایکها برای ارتباط استفاده میکنند. در این مقاله به بررسی اصول، مزایا، چالشها و کاربردهای SNNها میپردازیم.
اصول شبکههای عصبی پیکاندار
شبکههای SNN به گونهای طراحی شدهاند که نحوه عملکرد نورونهای بیولوژیکی را تقلید کنند. در سیستمهای بیولوژیکی، نورونها اطلاعات را از طریق پتانسیلهای عمل (اسپایکها یا پیکانها) منتقل میکنند که امواج الکتریکی کوتاهی هستند. این مکانیزم پیکانی اجازه میدهد تا ارتباط و پردازش اطلاعات به طور موثرتری انجام شود. ویژگیهای کلیدی SNNها شامل موارد پایین میشود:
- کدگذاری زمانی: اطلاعات نه تنها با نرخ پیکانها بلکه با زمان دقیق این پیکانها نمایندگی میشود.
- پردازش مبتنی بر رویداد: SNNها تنها زمانی که پیکانها رخ میدهند، اطلاعات را پردازش میکنند که منجر به صرفهجویی در انرژی و زمان پاسخ سریعتر میشود.
- واقعگرایی بیولوژیکی: SNNها ویژگیهایی مانند پلاستیسیته سیناپسی و دینامیکهای زمانی را شامل میشوند که آنها را با شبکههای عصبی بیولوژیکی بیشتر هماهنگ میکند.
مزایای شبکههای عصبی پیکاندار
- کارایی انرژی: SNNها به دلیل الگوهای فیرینگ، firing patterns، پراکنده و طبیعت مبتنیبر رویداد خود، به طور ذاتی از DNNها انرژی کمتری مصرف میکنند. این ویژگی آنها را برای کاربردهایی در سیستمهای موبایل و تعبیهشده که مصرف انرژی مهم است، مناسب میکند.
- پردازش زمان واقعی: طبیعت ناهمزمان ارتباط مبتنی بر پیکان به SNNها اجازه میدهد تا اطلاعات را در زمان واقعی پردازش کنند که برای کاربردهایی مانند رباتیک و وسایل نقلیه خودران ضروری است.
- مقاومت در برابر نویز: طبیعت گسسته پیکانها میتواند SNNها را در برابر نویز در دادههای ورودی مقاومتر کند.
- سازگاری با سختافزارهای نورومورفیک: SNNها میتوانند به طور مؤثری روی چیپهای نورومورفیک که برای تقلید از معماری مغز طراحی شدهاند، پیادهسازی شوند و کارایی آنها را بیشتر کند.
چالشها در آموزش شبکههای عصبی پیکاندار
با وجود مزایا، آموزش SNNها چالشهای قابل توجهی دارد:
- محدودیتهای گرادیان نزولی: روشهای سنتی بهینهسازی که در DNNها استفاده میشود، به دلیل طبیعت غیرقابل تفاضل سیگنالهای پیکانی مستقیماً قابل اعمال بر روی SNNها نیستند. این امر منجر به دشواریهایی در بهینهسازی وزنهای شبکه به طور مؤثر میشود.
- پیچیدگی معماری: طراحی معماری مناسب برای SNNها حیاتی اما چالشبرانگیز است. بسیاری از مدلهای موجود معماریهایی را از DNNها قرض گرفتهاند، اما تطابق مؤثر آنها برای عملکرد بهینه ضروری است.
- عملکرد بر روی مجموعه دادههای بزرگ: اگرچه SNNها در کارایی انرژی تلاشهایی دارند، دقت آنها بر روی مجموعه دادههای بزرگ معمولاً عقبتر از DNNها است که نیازمند تحقیقات و توسعه بیشتر است.
روشهای آموزشی برای شبکههای عصبی پیکاندار
چندین رویکرد برای آموزش SNNها توسعه یافته است:
- آموزش مستقیم: شامل آموزش SNNها با استفاده از روشهایی مانند پلاستیسیته وابسته به زمان پیکان (STDP) یا آموزش محدود قبل از تبدیل از یک مدل DNN است.
- تبدیل از DNNها: DNNهای پیشآموزش دیده میتوانند به مدلهای SNN تبدیل شوند با تطابق وزنها و پارامترهای آنها برای تناسب با چارچوب پیکانی. این روش نشان داده است که عملکرد مناسبی دارد.
- الگوریتمهای الهام گرفته از بیولوژی: الگوریتمهای جدیدی که فرآیندهای یادگیری بیولوژیکی را تقلید میکنند در حال بررسی هستند تا کارایی و اثربخشی آموزش SNNها را افزایش دهند.
کاربردهای شبکههای عصبی پیکاندار
شبکههای SNN دارای دامنه وسیعی از کاربردها در زمینههای مختلف هستند:
- بینایی کامپیوتری: برای وظایفی مانند شناسایی اشیا و درک صحنه، به ویژه با سنسورهای بینایی مبتنی بر رویداد که دادهها را به صورت فرمت پیکانی خروجی میدهند، استفاده میشوند.
- رباتیک: در سیستمهای رباتیکی، SNNها تصمیمگیری زمان واقعی و یادگیری تطبیقی مبتنیبر ورودیهای حسی را تسهیل میکنند.
- محاسبات نورومورفیک: با ظهور سکوهای سختافزاری نورومورفیک، SNNها به طور فزایندهای برای توسعه سیستمهای هوشمند که نیازمند مصرف کم انرژی و سرعت پردازش بالا هستند، مرتبط میشوند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #spiking_neural_networks #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات
شبکههای عصبی عمیق اسپایکینگ (SNNs) یک پارادایم پیشرفته در معماریهای شبکههای عصبی هستند که از فرآیندهای بیولوژیکی مغز انسان الهام گرفتهاند. بر خلاف شبکههای عصبی عمیق سنتی (DNNs) که از سیگنالهای پیوسته استفاده میکنند، SNNها از رویدادهای گسستهای به نام اسپایکها برای ارتباط استفاده میکنند. در این مقاله به بررسی اصول، مزایا، چالشها و کاربردهای SNNها میپردازیم.
اصول شبکههای عصبی پیکاندار
شبکههای SNN به گونهای طراحی شدهاند که نحوه عملکرد نورونهای بیولوژیکی را تقلید کنند. در سیستمهای بیولوژیکی، نورونها اطلاعات را از طریق پتانسیلهای عمل (اسپایکها یا پیکانها) منتقل میکنند که امواج الکتریکی کوتاهی هستند. این مکانیزم پیکانی اجازه میدهد تا ارتباط و پردازش اطلاعات به طور موثرتری انجام شود. ویژگیهای کلیدی SNNها شامل موارد پایین میشود:
- کدگذاری زمانی: اطلاعات نه تنها با نرخ پیکانها بلکه با زمان دقیق این پیکانها نمایندگی میشود.
- پردازش مبتنی بر رویداد: SNNها تنها زمانی که پیکانها رخ میدهند، اطلاعات را پردازش میکنند که منجر به صرفهجویی در انرژی و زمان پاسخ سریعتر میشود.
- واقعگرایی بیولوژیکی: SNNها ویژگیهایی مانند پلاستیسیته سیناپسی و دینامیکهای زمانی را شامل میشوند که آنها را با شبکههای عصبی بیولوژیکی بیشتر هماهنگ میکند.
مزایای شبکههای عصبی پیکاندار
- کارایی انرژی: SNNها به دلیل الگوهای فیرینگ، firing patterns، پراکنده و طبیعت مبتنیبر رویداد خود، به طور ذاتی از DNNها انرژی کمتری مصرف میکنند. این ویژگی آنها را برای کاربردهایی در سیستمهای موبایل و تعبیهشده که مصرف انرژی مهم است، مناسب میکند.
- پردازش زمان واقعی: طبیعت ناهمزمان ارتباط مبتنی بر پیکان به SNNها اجازه میدهد تا اطلاعات را در زمان واقعی پردازش کنند که برای کاربردهایی مانند رباتیک و وسایل نقلیه خودران ضروری است.
- مقاومت در برابر نویز: طبیعت گسسته پیکانها میتواند SNNها را در برابر نویز در دادههای ورودی مقاومتر کند.
- سازگاری با سختافزارهای نورومورفیک: SNNها میتوانند به طور مؤثری روی چیپهای نورومورفیک که برای تقلید از معماری مغز طراحی شدهاند، پیادهسازی شوند و کارایی آنها را بیشتر کند.
چالشها در آموزش شبکههای عصبی پیکاندار
با وجود مزایا، آموزش SNNها چالشهای قابل توجهی دارد:
- محدودیتهای گرادیان نزولی: روشهای سنتی بهینهسازی که در DNNها استفاده میشود، به دلیل طبیعت غیرقابل تفاضل سیگنالهای پیکانی مستقیماً قابل اعمال بر روی SNNها نیستند. این امر منجر به دشواریهایی در بهینهسازی وزنهای شبکه به طور مؤثر میشود.
- پیچیدگی معماری: طراحی معماری مناسب برای SNNها حیاتی اما چالشبرانگیز است. بسیاری از مدلهای موجود معماریهایی را از DNNها قرض گرفتهاند، اما تطابق مؤثر آنها برای عملکرد بهینه ضروری است.
- عملکرد بر روی مجموعه دادههای بزرگ: اگرچه SNNها در کارایی انرژی تلاشهایی دارند، دقت آنها بر روی مجموعه دادههای بزرگ معمولاً عقبتر از DNNها است که نیازمند تحقیقات و توسعه بیشتر است.
روشهای آموزشی برای شبکههای عصبی پیکاندار
چندین رویکرد برای آموزش SNNها توسعه یافته است:
- آموزش مستقیم: شامل آموزش SNNها با استفاده از روشهایی مانند پلاستیسیته وابسته به زمان پیکان (STDP) یا آموزش محدود قبل از تبدیل از یک مدل DNN است.
- تبدیل از DNNها: DNNهای پیشآموزش دیده میتوانند به مدلهای SNN تبدیل شوند با تطابق وزنها و پارامترهای آنها برای تناسب با چارچوب پیکانی. این روش نشان داده است که عملکرد مناسبی دارد.
- الگوریتمهای الهام گرفته از بیولوژی: الگوریتمهای جدیدی که فرآیندهای یادگیری بیولوژیکی را تقلید میکنند در حال بررسی هستند تا کارایی و اثربخشی آموزش SNNها را افزایش دهند.
کاربردهای شبکههای عصبی پیکاندار
شبکههای SNN دارای دامنه وسیعی از کاربردها در زمینههای مختلف هستند:
- بینایی کامپیوتری: برای وظایفی مانند شناسایی اشیا و درک صحنه، به ویژه با سنسورهای بینایی مبتنی بر رویداد که دادهها را به صورت فرمت پیکانی خروجی میدهند، استفاده میشوند.
- رباتیک: در سیستمهای رباتیکی، SNNها تصمیمگیری زمان واقعی و یادگیری تطبیقی مبتنیبر ورودیهای حسی را تسهیل میکنند.
- محاسبات نورومورفیک: با ظهور سکوهای سختافزاری نورومورفیک، SNNها به طور فزایندهای برای توسعه سیستمهای هوشمند که نیازمند مصرف کم انرژی و سرعت پردازش بالا هستند، مرتبط میشوند.
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
#مقاله #یادگیری_عمیق #spiking_neural_networks #شبکه_عصبی
ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ
پشتیبانی | کانال | سایت | اینستاگرام | آپارات