Audio
پادکست این هفته یکم متفاوت هست
مقاله نیست یه پست ردیت هست که یه نفر امده یه تصویر خیلیییی باحال (نمیگم درست) از اینکه به نظرش چطوری میتونیم به AGI برسیم ترسیم کرده
توی این تصویر اومده از نوروساینس، هوش مصنوعی و حتی روانشناسی استفاده کرده
مقاله هارو تیکه تیکه بهم چسبونده تا یه روش برای رسیدن به AGI ارائه بده
به نظرم گوش دادنش خالی از لطف نیست
@aipulse
مقاله نیست یه پست ردیت هست که یه نفر امده یه تصویر خیلیییی باحال (نمیگم درست) از اینکه به نظرش چطوری میتونیم به AGI برسیم ترسیم کرده
توی این تصویر اومده از نوروساینس، هوش مصنوعی و حتی روانشناسی استفاده کرده
مقاله هارو تیکه تیکه بهم چسبونده تا یه روش برای رسیدن به AGI ارائه بده
به نظرم گوش دادنش خالی از لطف نیست
@aipulse
هاگینگ فیس یه سری ابزار جدید به اسم smol-tools معرفی کرده که از مدل زبانی SmolLM2 استفاده میکنن. این مدل با اینکه فقط ۱.۷ میلیارد پارامتر داره (که یه مدل نسبتا کوچیک محسوب میشه!)، ولی میتونه کارهای خیلی جالبی انجام بده.
این مجموعه دوتا ابزار اصلی داره: یکیش یه خلاصهساز متنه که میتونه تا ۲۰ صفحه رو برات خلاصه کنه و حتی میتونی ازش سوال هم بپرسی. اون یکی هم یه ابزار بازنویسی متنه که میتونه نوشتههات رو بهتر و خوشخوانتر کنه.
و اما بهترین قسمت ماجرا: برخلاف خیلی از مدلهای دیگه، میتونی همه اینا رو روی لپتاپ یا کامپیوتر خودت اجرا کنی! نیازی به سختافزار عجیب و غریب یا کارت گرافیک آنچنانی هم نداری. کیفیت خروجیهاش هم واقعاً قابل قبوله - یه نمونه عالی از اینکه چطور میشه مدلهای کوچیک ولی کاربردی ساخت!
از اینجا میتونید بهش دسترسی داشته باشید.
@aipulse24
این مجموعه دوتا ابزار اصلی داره: یکیش یه خلاصهساز متنه که میتونه تا ۲۰ صفحه رو برات خلاصه کنه و حتی میتونی ازش سوال هم بپرسی. اون یکی هم یه ابزار بازنویسی متنه که میتونه نوشتههات رو بهتر و خوشخوانتر کنه.
و اما بهترین قسمت ماجرا: برخلاف خیلی از مدلهای دیگه، میتونی همه اینا رو روی لپتاپ یا کامپیوتر خودت اجرا کنی! نیازی به سختافزار عجیب و غریب یا کارت گرافیک آنچنانی هم نداری. کیفیت خروجیهاش هم واقعاً قابل قبوله - یه نمونه عالی از اینکه چطور میشه مدلهای کوچیک ولی کاربردی ساخت!
از اینجا میتونید بهش دسترسی داشته باشید.
@aipulse24
گوگل یک ابزار هوش مصنوعی جدید به نام Learn About معرفی کرده که با چتباتهای معمول مثل جمینای و چتجیپیتی کاملاً متفاوته. این ابزار که روی مدل LearnLM ساخته شده، بر اساس تحقیقات آموزشی طراحی شده و با نحوه یادگیری انسان تطابق داره. محتواش پر از عناصر بصری و تعاملی با فرمت آموزشیه.
تو یه مقایسه بین Learn About و جمینای با سوال "کیهان چقدر بزرگه؟"، هر دو سیستم جواب دادن که کیهان قابل مشاهده حدود ۹۳ میلیارد سال نوری قطر داره. ولی Learn About با کادرهای آموزشی، توضیحات تکمیلی و واژهنامه، جواب رو به شکل آموزشیتری ارائه داده، در حالی که جمینای فقط یک نمودار از ویکیپدیا و دو پاراگراف متن با لینک منابع ارائه کرده.
این ابزار جدید حتی در مواجهه با سوالهای چالشبرانگیز هم دقت و ارزش آموزشی بالاتری نشون داده و مثلاً وقتی درباره چسب زدن روی پیتزا سوال شده (که قبلاً برای هوش مصنوعی گوگل مشکلساز شده بود)، این بار جواب درستی ارائه کرده. تمرکز این ابزار روی آموزش، اون رو به گزینهای متمایز در مقایسه با چتباتهای موجود تبدیل کرده.
میتونید از اینجا بهش دسترسی داشته باشید، البته هنوز برای خیلی از کشورها در دسترس نیست.
@aipulse24
تو یه مقایسه بین Learn About و جمینای با سوال "کیهان چقدر بزرگه؟"، هر دو سیستم جواب دادن که کیهان قابل مشاهده حدود ۹۳ میلیارد سال نوری قطر داره. ولی Learn About با کادرهای آموزشی، توضیحات تکمیلی و واژهنامه، جواب رو به شکل آموزشیتری ارائه داده، در حالی که جمینای فقط یک نمودار از ویکیپدیا و دو پاراگراف متن با لینک منابع ارائه کرده.
این ابزار جدید حتی در مواجهه با سوالهای چالشبرانگیز هم دقت و ارزش آموزشی بالاتری نشون داده و مثلاً وقتی درباره چسب زدن روی پیتزا سوال شده (که قبلاً برای هوش مصنوعی گوگل مشکلساز شده بود)، این بار جواب درستی ارائه کرده. تمرکز این ابزار روی آموزش، اون رو به گزینهای متمایز در مقایسه با چتباتهای موجود تبدیل کرده.
میتونید از اینجا بهش دسترسی داشته باشید، البته هنوز برای خیلی از کشورها در دسترس نیست.
@aipulse24
AI Pulse
Photo
کدوم یکی از این عکسها تولید هوش مصنوعیه؟
Anonymous Quiz
47%
عکس بالا
18%
عکس پایین
22%
هردو
13%
هیچ کدام
شرکت چینی DeepSeek از مدل اوپن سورس جدیدش DeepSeek-R1 رونمایی کرده که با مدل o1 از OpenAI رقابت تنگاتنگی داره. نسخه پیشنمایش این مدل که اسمش DeepSeek-R1-Lite-Preview هست، تو آزمونهای معتبر مثل AIME و MATH عملکرد خیلی خوبی داشته و حتی از o1 هم بهتر عمل کرده.
این مدل جدید مثل o1 از روش «زنجیره فکری» استفاده میکنه که باعث میشه مسائل پیچیده رو قدم به قدم حل کنه. این روش کمک میکنه که مدل بتونه درستی محاسباتش رو چک کنه و از اشتباهات رایج دوری کنه. کاربرها میتونن مراحل فکر کردن مدل رو ببینن، ولی خب این دقت باعث میشه که جواب دادن به سوالهای پیچیده کمی زمانبر بشه.
با اینکه DeepSeek-R1 خیلی خوب کار میکنه و از سیستمهای پیشرفتهای مثل GPT-4 و Claude هم توی بنچمارکها بهتر عمل کرده، ولی هنوز یه سری مشکلات داره. ضمنا از اونجایی که یه محصول چینیه، به موضوعات سیاسی حساس مربوط به چین هم جواب نمیده.
قراره DeepSeek-R1 به صورت اوپنسورس منتشر بشه و API هم در دسترس کاربران قرار بگیره. فعلاً میشه از طریق وبسایت DeepSeek Chat از اینجا باهاش کار کرد، و کاربرهای رایگان روزی ۵۰ تا پیام میتونن بفرستن.
@aipulse24
این مدل جدید مثل o1 از روش «زنجیره فکری» استفاده میکنه که باعث میشه مسائل پیچیده رو قدم به قدم حل کنه. این روش کمک میکنه که مدل بتونه درستی محاسباتش رو چک کنه و از اشتباهات رایج دوری کنه. کاربرها میتونن مراحل فکر کردن مدل رو ببینن، ولی خب این دقت باعث میشه که جواب دادن به سوالهای پیچیده کمی زمانبر بشه.
با اینکه DeepSeek-R1 خیلی خوب کار میکنه و از سیستمهای پیشرفتهای مثل GPT-4 و Claude هم توی بنچمارکها بهتر عمل کرده، ولی هنوز یه سری مشکلات داره. ضمنا از اونجایی که یه محصول چینیه، به موضوعات سیاسی حساس مربوط به چین هم جواب نمیده.
قراره DeepSeek-R1 به صورت اوپنسورس منتشر بشه و API هم در دسترس کاربران قرار بگیره. فعلاً میشه از طریق وبسایت DeepSeek Chat از اینجا باهاش کار کرد، و کاربرهای رایگان روزی ۵۰ تا پیام میتونن بفرستن.
@aipulse24
آنتروپیک یک استاندارد جدید به نام پروتکل MCP یا Model Context Protocol معرفی کرده که میتونه دستیارهای هوش مصنوعی مثل Claude رو به منابع مختلف اطلاعاتی و سیستمها متصل کنه. با این پروتکل دیگه نیازی نیست برای هر منبع اطلاعاتی یک رابط جداگانه نوشته بشه.
ساختار MCP از دو بخش تشکیل شده: سرورهای MCP که اطلاعات رو از پلتفرمهای مختلف در دسترس قرار میدن، و کلاینتهای MCP که برنامههای مبتنی بر هوش مصنوعی هستن. آنتروپیک مشخصات فنی، SDK و یک مخزن متنباز از سرورهای آماده MCP برای سیستمهای محبوب مثل گوگل درایو، اسلک و گیتهاب رو منتشر کرده.
همچنین این استاندارد مورد استقبال کاربران و توسعه دهندگان زیادی قرار گرفته و باعث شده سرورهای مختلفی برای MCP توسعه بدن، مثلا در یکی از ویدیوهایی که بالا ضمیمه کردم یک کاربر با یک سرور MCP متصل به آمازون تونسته مواد غذایی مورد نیازش رو با استفاده از کلاد سفارش بده.
در حال حاضر MCP در نسخه دسکتاپ کلاد برای مک و ویندوز در دسترسه و کاربرها میتونن به فایلهای محلی، اینترنت و حتی کانالهای اسلک دسترسی داشته باشن.
این پروتکل میتونه تاثیر زیادی روی برنامههای هوش مصنوعی بذاره چون یک روش استاندارد برای تغذیه اطلاعات خارجی به مدلهای هوش مصنوعی فراهم میکنه. شرکتهای بزرگی مثل Cloudflare از الان شروع به توسعه سرورهای MCP کردن و با بلوغ این اکوسیستم، سیستمهای هوش مصنوعی میتونن در حین حرکت بین ابزارها و دادههای مختلف، متن رو هم بهتر درک کنن.
سرورهای آماده MCP رو از اینجا و نسخه دسکتاپ کلاد رو از اینجا میتونید دانلود کنید.
@aipulse24
ساختار MCP از دو بخش تشکیل شده: سرورهای MCP که اطلاعات رو از پلتفرمهای مختلف در دسترس قرار میدن، و کلاینتهای MCP که برنامههای مبتنی بر هوش مصنوعی هستن. آنتروپیک مشخصات فنی، SDK و یک مخزن متنباز از سرورهای آماده MCP برای سیستمهای محبوب مثل گوگل درایو، اسلک و گیتهاب رو منتشر کرده.
همچنین این استاندارد مورد استقبال کاربران و توسعه دهندگان زیادی قرار گرفته و باعث شده سرورهای مختلفی برای MCP توسعه بدن، مثلا در یکی از ویدیوهایی که بالا ضمیمه کردم یک کاربر با یک سرور MCP متصل به آمازون تونسته مواد غذایی مورد نیازش رو با استفاده از کلاد سفارش بده.
در حال حاضر MCP در نسخه دسکتاپ کلاد برای مک و ویندوز در دسترسه و کاربرها میتونن به فایلهای محلی، اینترنت و حتی کانالهای اسلک دسترسی داشته باشن.
این پروتکل میتونه تاثیر زیادی روی برنامههای هوش مصنوعی بذاره چون یک روش استاندارد برای تغذیه اطلاعات خارجی به مدلهای هوش مصنوعی فراهم میکنه. شرکتهای بزرگی مثل Cloudflare از الان شروع به توسعه سرورهای MCP کردن و با بلوغ این اکوسیستم، سیستمهای هوش مصنوعی میتونن در حین حرکت بین ابزارها و دادههای مختلف، متن رو هم بهتر درک کنن.
سرورهای آماده MCP رو از اینجا و نسخه دسکتاپ کلاد رو از اینجا میتونید دانلود کنید.
@aipulse24
اوپنروتر، یک سرویس پیشرفته هوش مصنوعی هست که امکان استفاده از انواع مدلهای زبانی رو با یک API ساده فراهم میکنه. تصور کنید به جای اینکه مجبور باشید برای هر مدل هوش مصنوعی یک حساب جداگانه بسازید، میتونید از طریق یک درگاه واحد به همه اونها دسترسی داشته باشید.
تنوع مدلهای موجود در اوپنروتر واقعاً چشمگیره. از مدلهای سبک و سریع مثل Llama گرفته تا مدلهای قدرتمندی مثل GPT و Claude. هر کدوم از این مدلها برای کار خاصی بهینه شدن؛ مثلاً بعضیهاشون توی خلاصهنویسی عالی عمل میکنن، بعضیها توی برنامهنویسی، و بعضیها توی تحلیل متنهای طولانی.
در مورد هزینهها، اوپنروتر کاملاً شفاف عمل میکنه. شما میتونید قبل از استفاده، قیمت دقیق هر مدل رو ببینید و مقایسه کنید. سیستم پرداخت هم خیلی سادهست، حسابتون رو شارژ میکنید و فقط به اندازه استفادهتون هزینه پرداخت میکنید. این یعنی هم برای یک کاربر عادی مناسبه، هم برای یک برنامهنویس مستقل، و هم برای یک شرکت بزرگ. ضمنا میتونید با رمزارزها هم حسابتون رو شارژ کنید که برای کاربران ایرانی به دلیل در دسترس نبودن سیستم های پرداخت سنتی بسیار حائز اهمیت هست.
نکته جالب دیگه اینه که به عنوان توسعه دهنده میتونید خیلی راحت بین مدلهای مختلف جابجا بشید. مثلاً اگه دیدید یک مدل جدید اومده که برای کارتون بهتره، کافیه فقط اسم مدل رو عوض کنید - نیازی نیست کل برنامهتون رو تغییر بدید. این ویژگی باعث میشه اوپنروتر برای همه کاربرها، از مبتدی تا حرفهای، یک گزینه عالی باشه.
نکته هیجانانگیز اینه که حتی اگه برنامهنویس نیستید یا اصلاً نمیدونید API چیه، میتونید از طریق رابط کاربری ساده چت اوپنروتر، با بیش از ۲۰۰ مدل هوش مصنوعی مختلف گفتگو کنید. یکی از قابلیتهای جالبش اینه که میتونید همزمان از چند مدل مختلف جواب بگیرید و جوابها رو با هم مقایسه کنید تا از درستی اطلاعات مطمئن بشید. حتی میتونید تنظیمات مختلف هر مدل رو تغییر بدید - مثلاً میزان خلاقیت یا دقت مدل رو کم و زیاد کنید - تا دقیقاً به جوابی که میخواید برسید.
لازمه بدونید که حتی بدون شارژ کردن حسابتون هم میتونید از تعدادی از این مدلها به صورت کاملا رایگان برای تست API و یا قابلیت چت اوپن روتر استفاده کنید که لیست این مدل ها از اینجا قابل مشاهدهست.
به زبون سادهتر، اوپنروتر مثل یک مرکز خرید بزرگ برای هوش مصنوعی میمونه - همه چیز رو یکجا و با قیمتهای شفاف پیدا میکنید، و میتونید هر وقت خواستید از هر مدلی که دوست دارید استفاده کنید، چه برنامهنویس باشید چه نباشید.
سرویس چت اوپن روتر از اینجا در دسترسه، همچنین لیست مدل های موجود رو از اینجا و مستندات API رو از اینجا میتونید مشاهده کنید.
@aipulse24
تنوع مدلهای موجود در اوپنروتر واقعاً چشمگیره. از مدلهای سبک و سریع مثل Llama گرفته تا مدلهای قدرتمندی مثل GPT و Claude. هر کدوم از این مدلها برای کار خاصی بهینه شدن؛ مثلاً بعضیهاشون توی خلاصهنویسی عالی عمل میکنن، بعضیها توی برنامهنویسی، و بعضیها توی تحلیل متنهای طولانی.
در مورد هزینهها، اوپنروتر کاملاً شفاف عمل میکنه. شما میتونید قبل از استفاده، قیمت دقیق هر مدل رو ببینید و مقایسه کنید. سیستم پرداخت هم خیلی سادهست، حسابتون رو شارژ میکنید و فقط به اندازه استفادهتون هزینه پرداخت میکنید. این یعنی هم برای یک کاربر عادی مناسبه، هم برای یک برنامهنویس مستقل، و هم برای یک شرکت بزرگ. ضمنا میتونید با رمزارزها هم حسابتون رو شارژ کنید که برای کاربران ایرانی به دلیل در دسترس نبودن سیستم های پرداخت سنتی بسیار حائز اهمیت هست.
نکته جالب دیگه اینه که به عنوان توسعه دهنده میتونید خیلی راحت بین مدلهای مختلف جابجا بشید. مثلاً اگه دیدید یک مدل جدید اومده که برای کارتون بهتره، کافیه فقط اسم مدل رو عوض کنید - نیازی نیست کل برنامهتون رو تغییر بدید. این ویژگی باعث میشه اوپنروتر برای همه کاربرها، از مبتدی تا حرفهای، یک گزینه عالی باشه.
نکته هیجانانگیز اینه که حتی اگه برنامهنویس نیستید یا اصلاً نمیدونید API چیه، میتونید از طریق رابط کاربری ساده چت اوپنروتر، با بیش از ۲۰۰ مدل هوش مصنوعی مختلف گفتگو کنید. یکی از قابلیتهای جالبش اینه که میتونید همزمان از چند مدل مختلف جواب بگیرید و جوابها رو با هم مقایسه کنید تا از درستی اطلاعات مطمئن بشید. حتی میتونید تنظیمات مختلف هر مدل رو تغییر بدید - مثلاً میزان خلاقیت یا دقت مدل رو کم و زیاد کنید - تا دقیقاً به جوابی که میخواید برسید.
لازمه بدونید که حتی بدون شارژ کردن حسابتون هم میتونید از تعدادی از این مدلها به صورت کاملا رایگان برای تست API و یا قابلیت چت اوپن روتر استفاده کنید که لیست این مدل ها از اینجا قابل مشاهدهست.
به زبون سادهتر، اوپنروتر مثل یک مرکز خرید بزرگ برای هوش مصنوعی میمونه - همه چیز رو یکجا و با قیمتهای شفاف پیدا میکنید، و میتونید هر وقت خواستید از هر مدلی که دوست دارید استفاده کنید، چه برنامهنویس باشید چه نباشید.
سرویس چت اوپن روتر از اینجا در دسترسه، همچنین لیست مدل های موجود رو از اینجا و مستندات API رو از اینجا میتونید مشاهده کنید.
@aipulse24
Media is too big
VIEW IN TELEGRAM
لوما AI بهتازگی از جدیدترین دستاورد خودش در زمینه تولید ویدیو با هوش مصنوعی رونمایی کرده: Ray2. این مدل جدید که بخشی از پلتفرم Dream Machine هست، یک جهش چشمگیر در ساخت محتوای ویدیویی واقعگرایانه و پویا از متن به حساب میاد.
قدرت پردازشی Ray2 نسبت به نسخه قبلیش ۱۰ برابر افزایش پیدا کرده. این ارتقای قابل توجه باعث شده بتونه ویدیوهای ۵ تا ۱۰ ثانیهای با کیفیت بالا تولید کنه که حرکتهای طبیعی و منسجمی دارن. این مدل در تولید انیمیشنهای واقعگرایانه، انتقالهای نرم و فیلمبرداری پیشرفته عملکرد فوقالعادهای داره و درک بهتری از فیزیک دنیای واقعی نشون میده.
در حال حاضر، Ray2 از تبدیل متن به ویدیو پشتیبانی میکنه و کاربرها میتونن با وارد کردن توضیحات متنی، کلیپهای کوتاه تولید کنن. این مدل قادره محتوا رو با کیفیت 1080P تولید کنه و قراره در بهروزرسانیهای آینده، مدت زمان ویدیوها به ۲۰ ثانیه افزایش پیدا کنه. لوما AI همچنین خبر داده که قابلیتهای جدیدی مثل تبدیل عکس به ویدیو، ویدیو به ویدیو و ابزارهای ویرایش پیشرفته در راه هستن.
مدل Ray2 هماکنون برای مشترکین پلتفرم Dream Machine در دسترسه و قیمت اشتراکها از ۷ دلار در ماه شروع میشه.
@aipulse24
قدرت پردازشی Ray2 نسبت به نسخه قبلیش ۱۰ برابر افزایش پیدا کرده. این ارتقای قابل توجه باعث شده بتونه ویدیوهای ۵ تا ۱۰ ثانیهای با کیفیت بالا تولید کنه که حرکتهای طبیعی و منسجمی دارن. این مدل در تولید انیمیشنهای واقعگرایانه، انتقالهای نرم و فیلمبرداری پیشرفته عملکرد فوقالعادهای داره و درک بهتری از فیزیک دنیای واقعی نشون میده.
در حال حاضر، Ray2 از تبدیل متن به ویدیو پشتیبانی میکنه و کاربرها میتونن با وارد کردن توضیحات متنی، کلیپهای کوتاه تولید کنن. این مدل قادره محتوا رو با کیفیت 1080P تولید کنه و قراره در بهروزرسانیهای آینده، مدت زمان ویدیوها به ۲۰ ثانیه افزایش پیدا کنه. لوما AI همچنین خبر داده که قابلیتهای جدیدی مثل تبدیل عکس به ویدیو، ویدیو به ویدیو و ابزارهای ویرایش پیشرفته در راه هستن.
مدل Ray2 هماکنون برای مشترکین پلتفرم Dream Machine در دسترسه و قیمت اشتراکها از ۷ دلار در ماه شروع میشه.
@aipulse24
مدلهای زبانی بزرگ (LLM) که بر پایه معماری ترنسفورمر کار میکنن، تحول چشمگیری در پردازش متن ایجاد کردن. این مدلها از ماژولهای توجه (attention) استفاده میکنن که مثل یه حافظه قدرتمند عمل میکنن و میتونن ارتباطهای پیچیده بین کلمات رو درک کنن. اما یه مشکل اساسی دارن: هرچی متن طولانیتر باشه، نیاز به محاسبات و حافظه بهطور تصاعدی افزایش پیدا میکنه و این باعث میشه که استفاده از اونها در دنیای واقعی با محدودیتهای جدی مواجه بشه.
خبر خوب اینه که محققان گوگل یه راهحل نوآورانه پیشنهاد کردن که اسمش رو گذاشتن Titans. این سیستم جدید از یه ماژول حافظه عصبی بلندمدت استفاده میکنه که میتونه اطلاعات تاریخی رو به شکل کارآمدی ذخیره و بازیابی کنه. جالبترین ویژگی Titans اینه که از یه سیستم حافظه دوگانه استفاده میکنه: یه بخش برای حافظه کوتاهمدت که وظیفهش مدلسازی دقیق وابستگیهای متنی در محدوده کوچکه، و یه بخش برای حافظه بلندمدت که اطلاعات مهم رو برای استفادههای بعدی نگه میداره.
این سیستم جدید از سه ماژول اصلی تشکیل شده: یه هسته مرکزی که مسئول پردازش اصلی دادههاست، یه شاخه حافظه بلندمدت که اطلاعات تاریخی رو ذخیره میکنه، و یه بخش حافظه دائمی که پارامترهای ثابت و مستقل از داده رو نگه میداره. محققان با استفاده از تکنیکهای پیشرفتهای مثل اتصالات باقیمانده، توابع فعالسازی SiLU و نرمالسازی، عملکرد سیستم رو بهینه کردن.
نتایج آزمایشها نشون میده که این سیستم جدید عملکرد فوقالعادهای داره. سه نسخه مختلف Titans (MAC، MAG و MAL) همگی از مدلهای موجود بهتر عمل میکنن و میتونن متنهای خیلی طولانی (بیشتر از ۲ میلیون توکن) رو با دقت بالا پردازش کنن. این موفقیت به خاطر سه ویژگی کلیدیه: مدیریت بهینه حافظه، قابلیتهای پیشرفته حافظه غیرخطی، و توانایی حذف هوشمندانه اطلاعات غیرضروری از حافظه.
این دستاورد مهم میتونه تأثیر زیادی روی آینده هوش مصنوعی و کاربردهای عملی اون داشته باشه. حالا میتونیم به سیستمهایی فکر کنیم که قادرن متنهای خیلی طولانی رو درک کنن، ویدیوها رو تحلیل کنن و پیشبینیهای دقیقتری از روندهای طولانیمدت داشته باشن. این پیشرفت، درهای جدیدی رو به روی محققان و توسعهدهندگان باز میکنه و میتونه به حل مسائل پیچیدهتر در آینده کمک کنه.
از اینجا میتونید نسخه کامل این مقاله رو دانلود و مشاهده کنید.
👀 منبع
@aipulse24
خبر خوب اینه که محققان گوگل یه راهحل نوآورانه پیشنهاد کردن که اسمش رو گذاشتن Titans. این سیستم جدید از یه ماژول حافظه عصبی بلندمدت استفاده میکنه که میتونه اطلاعات تاریخی رو به شکل کارآمدی ذخیره و بازیابی کنه. جالبترین ویژگی Titans اینه که از یه سیستم حافظه دوگانه استفاده میکنه: یه بخش برای حافظه کوتاهمدت که وظیفهش مدلسازی دقیق وابستگیهای متنی در محدوده کوچکه، و یه بخش برای حافظه بلندمدت که اطلاعات مهم رو برای استفادههای بعدی نگه میداره.
این سیستم جدید از سه ماژول اصلی تشکیل شده: یه هسته مرکزی که مسئول پردازش اصلی دادههاست، یه شاخه حافظه بلندمدت که اطلاعات تاریخی رو ذخیره میکنه، و یه بخش حافظه دائمی که پارامترهای ثابت و مستقل از داده رو نگه میداره. محققان با استفاده از تکنیکهای پیشرفتهای مثل اتصالات باقیمانده، توابع فعالسازی SiLU و نرمالسازی، عملکرد سیستم رو بهینه کردن.
نتایج آزمایشها نشون میده که این سیستم جدید عملکرد فوقالعادهای داره. سه نسخه مختلف Titans (MAC، MAG و MAL) همگی از مدلهای موجود بهتر عمل میکنن و میتونن متنهای خیلی طولانی (بیشتر از ۲ میلیون توکن) رو با دقت بالا پردازش کنن. این موفقیت به خاطر سه ویژگی کلیدیه: مدیریت بهینه حافظه، قابلیتهای پیشرفته حافظه غیرخطی، و توانایی حذف هوشمندانه اطلاعات غیرضروری از حافظه.
این دستاورد مهم میتونه تأثیر زیادی روی آینده هوش مصنوعی و کاربردهای عملی اون داشته باشه. حالا میتونیم به سیستمهایی فکر کنیم که قادرن متنهای خیلی طولانی رو درک کنن، ویدیوها رو تحلیل کنن و پیشبینیهای دقیقتری از روندهای طولانیمدت داشته باشن. این پیشرفت، درهای جدیدی رو به روی محققان و توسعهدهندگان باز میکنه و میتونه به حل مسائل پیچیدهتر در آینده کمک کنه.
از اینجا میتونید نسخه کامل این مقاله رو دانلود و مشاهده کنید.
👀 منبع
@aipulse24