📣 معرفی سخنرانان سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
📣 معرفی سخنرانان کارگاه یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
📣 برنامه زمانی کارگاه یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
📣 برنامه زمانی سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
(Deep Learning and Neural Networks)
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Professor Wulfram Gerstner,
Director of the Laboratory of Computational Neuroscience (LCN) at the EPFL
Title: Eligibility traces and three-factor rules of synaptic plasticity.
Abstract: Hebbian plasticity combines two factors: presynaptic activity must occur together with some postsynaptic variable (spikes, voltage deflection, calcium elevation ...). In three-factor learning rules the combination of the two Hebbian factors is not sufficient, but leaves a trace at the synapses (eligibility trace) which decays over a few seconds; only if a third factor (neuromodulator signal) is present, either simultaneously or within a short a delay, the actual change of the synapse via long-term plasticity is triggered. After a review of classic theories and recent evidence of plasticity traces from plasticity experiments in rodents, I will discuss two studies from my own lab: the first one is a modeling study of reward-based learning with spiking neurons using an actor-critic architecture; the second one is a joint theory-experimental study showing evidence for eligibility traces in human behavior and pupillometry. Extensions from reward-based learning to surprise-based learning will be indicated.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Professor Wulfram Gerstner,
Director of the Laboratory of Computational Neuroscience (LCN) at the EPFL
Title: Eligibility traces and three-factor rules of synaptic plasticity.
Abstract: Hebbian plasticity combines two factors: presynaptic activity must occur together with some postsynaptic variable (spikes, voltage deflection, calcium elevation ...). In three-factor learning rules the combination of the two Hebbian factors is not sufficient, but leaves a trace at the synapses (eligibility trace) which decays over a few seconds; only if a third factor (neuromodulator signal) is present, either simultaneously or within a short a delay, the actual change of the synapse via long-term plasticity is triggered. After a review of classic theories and recent evidence of plasticity traces from plasticity experiments in rodents, I will discuss two studies from my own lab: the first one is a modeling study of reward-based learning with spiking neurons using an actor-critic architecture; the second one is a joint theory-experimental study showing evidence for eligibility traces in human behavior and pupillometry. Extensions from reward-based learning to surprise-based learning will be indicated.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Professor James L. McClelland,
Co-Director, Center for Mind, Brain, Computation and Technology, Stanford University
Title: Human and Machine Learning: How each has taught us about the other, and what is left to learn
Abstract: In this talk, I will describe work at the interface between human and machine learning. The talk will draw on the effects of brain damage on human learning and memory, the patterns of learning that humans exhibit, and computational models based on artificial neural networks that reveal properties shared by human and artificial neural networks. In the latter part of the talk, we will discuss challenges posed to artificial learning systems by aspects of human learning we still do not fully understand in terms of the underlying neural computations.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Professor James L. McClelland,
Co-Director, Center for Mind, Brain, Computation and Technology, Stanford University
Title: Human and Machine Learning: How each has taught us about the other, and what is left to learn
Abstract: In this talk, I will describe work at the interface between human and machine learning. The talk will draw on the effects of brain damage on human learning and memory, the patterns of learning that humans exhibit, and computational models based on artificial neural networks that reveal properties shared by human and artificial neural networks. In the latter part of the talk, we will discuss challenges posed to artificial learning systems by aspects of human learning we still do not fully understand in terms of the underlying neural computations.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎
📌 آشنایی با فناوری هوش مصنوعی
با گذشت زمان و پیشرفت علم و فناوری در زمینه کامپیوتر و نرمافزار، موضوع AI یا هوش مصنوعی بیشتر و بیشتر سر زبانها میآید. هوش مصنوعی چیست؟ به طور کل هوش مصنوعی یعنی دستگاهی که مثل انسان قادر به تفکر، تجزیه و تحلیل، برنامهریزی، تشخیص و پردازش باشد.
هوش مصنوعی به سه دسته محدود (Artificial Narrow Intelligence)، عمومی (Artificial General Intelligence) و ابرهوش (Artificial Super Intelligence) تقسیم میشود که اولی در حوزهی خاصی عمل میکند (به عنوان مثال ترجمه زبان) و گونهایست که ما امروزه با آن سروکار داریم در حالی که مورد دوم بازهی عملیاتی خاصی ندارد و با قرار گرفتن در هر محیطی، شرایط و اوضاع آنرا میسنجد و مسائل گوناگونی را حل میکند و آخرین مورد ماشینی خواهد بود که در تمامی اعمال متکی بر نیروی تعقل و تصمیمگیری از انسان بهتر عمل کند.
📣 @LoopAcademy
📌 تاریخچه هوش مصنوعی
بین سالهای 1940 تا 1950، تعدادی از دانشمندان از رشتههای مختلف، شروع به بررسی امکان ساخت هوش مصنوعی کردند و در نتیجهی آن، گرایش به تحقیق در این حوزه بیشتر شد تا اینکه در سال 1956 به یک رشتهی پژوهشی تبدیل شد (Dartmouth College, Hanover, New Hampshire). اصطلاح هوش مصنوعی اولین بار توسط جان مککارتی مطرح شد. او به همراه آلن تورینگ، ماروین مینسکی، آلن نول و هربرت سیمون به عنوان پیشکسوتان این عرصه محسوب میشوند. در اوایل چون ساخت هوش مصنوعی در ماشین کار دشواری بود، با وجود بودجهی هنگفت بین المللی پیشرفتی حاصل نمیشد، سپس، در سالهای 1970 تا 1990، به دلیل کمبود بودجه مورد نیاز، پیشرفت خاصی حاصل نشد. اما بعد از آن، گرایش شرکتهای آمریکایی به هوش مصنوعی بازگشت و دولت ژاپن نیز برنامههایی را برای ساخت نسل پنجم رایانهها در جهت پیشرفت هوش مصنوعی طراحی کرد و نهایتا در سال 1997، Deep Blue توانست گری کاسپاروف را در شطرنج شکست دهد.
با گذشت زمان و پیشرفت هوش مصنوعی و سخت افزار شرکتها و دولتهای بیشتری شروع به بکارگیری این فناوری کردهاند. در پانزده سال اخیر، شرکتهایی نظیر Google، Amazon، Baidu و... با استفاده از هوش مصنوعی به برتریهای تجاری زیادی دست یافتهاند. این فناوری علاوه بر تاثیرگذاری بر مباحث مختلف، بخش بزرگی از بازار را نیز تحت کنترل خود درآورده، چرا که امروزه، هوش مصنوعی در بسیاری از خدمات اینترنتی ادغام شده.
📣 @LoopAcademy
#ai #artificial_intelligence #alan_turing #john_mccarthy #computer_science #machine_learning #deep_blue
با گذشت زمان و پیشرفت علم و فناوری در زمینه کامپیوتر و نرمافزار، موضوع AI یا هوش مصنوعی بیشتر و بیشتر سر زبانها میآید. هوش مصنوعی چیست؟ به طور کل هوش مصنوعی یعنی دستگاهی که مثل انسان قادر به تفکر، تجزیه و تحلیل، برنامهریزی، تشخیص و پردازش باشد.
هوش مصنوعی به سه دسته محدود (Artificial Narrow Intelligence)، عمومی (Artificial General Intelligence) و ابرهوش (Artificial Super Intelligence) تقسیم میشود که اولی در حوزهی خاصی عمل میکند (به عنوان مثال ترجمه زبان) و گونهایست که ما امروزه با آن سروکار داریم در حالی که مورد دوم بازهی عملیاتی خاصی ندارد و با قرار گرفتن در هر محیطی، شرایط و اوضاع آنرا میسنجد و مسائل گوناگونی را حل میکند و آخرین مورد ماشینی خواهد بود که در تمامی اعمال متکی بر نیروی تعقل و تصمیمگیری از انسان بهتر عمل کند.
📣 @LoopAcademy
📌 تاریخچه هوش مصنوعی
بین سالهای 1940 تا 1950، تعدادی از دانشمندان از رشتههای مختلف، شروع به بررسی امکان ساخت هوش مصنوعی کردند و در نتیجهی آن، گرایش به تحقیق در این حوزه بیشتر شد تا اینکه در سال 1956 به یک رشتهی پژوهشی تبدیل شد (Dartmouth College, Hanover, New Hampshire). اصطلاح هوش مصنوعی اولین بار توسط جان مککارتی مطرح شد. او به همراه آلن تورینگ، ماروین مینسکی، آلن نول و هربرت سیمون به عنوان پیشکسوتان این عرصه محسوب میشوند. در اوایل چون ساخت هوش مصنوعی در ماشین کار دشواری بود، با وجود بودجهی هنگفت بین المللی پیشرفتی حاصل نمیشد، سپس، در سالهای 1970 تا 1990، به دلیل کمبود بودجه مورد نیاز، پیشرفت خاصی حاصل نشد. اما بعد از آن، گرایش شرکتهای آمریکایی به هوش مصنوعی بازگشت و دولت ژاپن نیز برنامههایی را برای ساخت نسل پنجم رایانهها در جهت پیشرفت هوش مصنوعی طراحی کرد و نهایتا در سال 1997، Deep Blue توانست گری کاسپاروف را در شطرنج شکست دهد.
با گذشت زمان و پیشرفت هوش مصنوعی و سخت افزار شرکتها و دولتهای بیشتری شروع به بکارگیری این فناوری کردهاند. در پانزده سال اخیر، شرکتهایی نظیر Google، Amazon، Baidu و... با استفاده از هوش مصنوعی به برتریهای تجاری زیادی دست یافتهاند. این فناوری علاوه بر تاثیرگذاری بر مباحث مختلف، بخش بزرگی از بازار را نیز تحت کنترل خود درآورده، چرا که امروزه، هوش مصنوعی در بسیاری از خدمات اینترنتی ادغام شده.
📣 @LoopAcademy
#ai #artificial_intelligence #alan_turing #john_mccarthy #computer_science #machine_learning #deep_blue
Telegram
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Professor Hugo Larochelle,
Google Brain
Title: Learning to generalize from few examples with meta-learning
Abstract: A lot of the recent progress on many AI tasks were enabled in part by the availability of large quantities of labeled data for deep learning. Yet, humans are able to learn concepts from as little as a handful of examples. Meta-learning has been a very promising framework for addressing the problem of generalizing from small amounts of data, known as few-shot learning. In this talk, I’ll present an overview of the recent research that has made exciting progress on this topic. I will also share my thoughts on the challenges and research opportunities that remain in few-shot learning, including a proposal for a new benchmark.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Professor Hugo Larochelle,
Google Brain
Title: Learning to generalize from few examples with meta-learning
Abstract: A lot of the recent progress on many AI tasks were enabled in part by the availability of large quantities of labeled data for deep learning. Yet, humans are able to learn concepts from as little as a handful of examples. Meta-learning has been a very promising framework for addressing the problem of generalizing from small amounts of data, known as few-shot learning. In this talk, I’ll present an overview of the recent research that has made exciting progress on this topic. I will also share my thoughts on the challenges and research opportunities that remain in few-shot learning, including a proposal for a new benchmark.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎
📣 اطلاعیه خوابگاه برای شرکت کنندگان در کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی
جهت رفاه حال دانشجویان مقیم سایر شهر ها و با هماهنگی های انجام شده با دانشگاه شهید بهشتی، تعداد محدودی خوابگاه برای دانشجویان ثبت نامی کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی فراهم شده است. لذا دانشجویانی که قصد اقامت در خوابگاه را دارند قبل از ثبت نام با شماره 09195849138 (آقای هادیان) تماس حاصل فرمایند و یا به آیدی تلگرام @AmirHoseinHadian پیام ارسال نمایند و بعد از هماهنگی خوابگاه در وبسایت ثبت نام نمایند.
⚠️ ظرفیت خوابگاه محدود می باشد.
❗️اولویت با افرادی است که زودتر اقدام نمایند.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
جهت رفاه حال دانشجویان مقیم سایر شهر ها و با هماهنگی های انجام شده با دانشگاه شهید بهشتی، تعداد محدودی خوابگاه برای دانشجویان ثبت نامی کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی فراهم شده است. لذا دانشجویانی که قصد اقامت در خوابگاه را دارند قبل از ثبت نام با شماره 09195849138 (آقای هادیان) تماس حاصل فرمایند و یا به آیدی تلگرام @AmirHoseinHadian پیام ارسال نمایند و بعد از هماهنگی خوابگاه در وبسایت ثبت نام نمایند.
⚠️ ظرفیت خوابگاه محدود می باشد.
❗️اولویت با افرادی است که زودتر اقدام نمایند.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021 - 2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Loop Academy | آکادمیِ لوپ pinned «📣 اطلاعیه خوابگاه برای شرکت کنندگان در کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی جهت رفاه حال دانشجویان مقیم سایر شهر ها و با هماهنگی های انجام شده با دانشگاه شهید بهشتی، تعداد محدودی خوابگاه برای دانشجویان ثبت نامی کارگاه و سمپوزیم یادگیری عمیق و شبکه…»
پرسش های متداول
#FAQ
⁉️ مدارک کارگاه و سمپوزیم یادگیری عمیق از کجا صادر میشود، آیا قابل ترجمه است؟
💭 مدارک این دوره از طرف دانشگاه شهید بهشتی صادر خواهد شد و توسط معاونت پژوهشی پژوهشکده علوم شناختی و مغز و همینطور دبیر علمی این دوره امضا خواهد شد که این مدرک معتبر بوده و قابل ترجمه می باشد.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
#FAQ
⁉️ مدارک کارگاه و سمپوزیم یادگیری عمیق از کجا صادر میشود، آیا قابل ترجمه است؟
💭 مدارک این دوره از طرف دانشگاه شهید بهشتی صادر خواهد شد و توسط معاونت پژوهشی پژوهشکده علوم شناختی و مغز و همینطور دبیر علمی این دوره امضا خواهد شد که این مدرک معتبر بوده و قابل ترجمه می باشد.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
پرسش های متداول
#FAQ
⁉️ تا چه تاریخی امکان ثبت نام در این رویداد موجود است؟
💭 از آنجایی که ظرفیت کارگاه و سمپوزیم یادگیری عمیق رو به اتمام است به علاقمندان به شرکت در این رویداد پیشنهاد میشود هر چه سریعتر اقدام به ثبت نام نمایند زیرا ظرفیت ها به هیچ وجه افزایش نخواهند یافت.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
#FAQ
⁉️ تا چه تاریخی امکان ثبت نام در این رویداد موجود است؟
💭 از آنجایی که ظرفیت کارگاه و سمپوزیم یادگیری عمیق رو به اتمام است به علاقمندان به شرکت در این رویداد پیشنهاد میشود هر چه سریعتر اقدام به ثبت نام نمایند زیرا ظرفیت ها به هیچ وجه افزایش نخواهند یافت.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📌 شیوههای ارزیابی هوش مصنوعی
اما چگونه میتوان یک هوش مصنوعی را ارزیابی کرد؟ حتی اگر به جایی برسیم که هوش مصنوعی بتواند مثل انسان رفتار کند، چگونه میتوانیم از ثبات رفتاری آن اطمینان حاصل کنیم؟
از روشهای مختلفی استفاده برای ارزیابی و تعیین سطح هوش مصنوعی استفاده میشود که در ادامه به طور مختصر به آنها میپردازیم:
✔️ قانون تورینگ (Turing Test):
اساس قانون تورینگ این است که دستگاه بتواند مکالمهای را با انسان انجام دهد طوری که انسان نتواند تشخیص بدهد که با ماشین مکالمه داشته. برای رسیدن به این سطح، هوش مصنوعی باید دارای خصوصیاتی مثل پردازش زبان جهت برقراری ارتباط، ارائه دانش به عنوان حافظه، استفاده از اطلاعات ذخیره شده و منطق خودکار جهت حل مسائل و نتیجه گیری، و یادگیری ماشین برای فهمیدن الگوها و دنبالههای جدید و مطابقت با شرایط مختلف باشد.
✔️ رویکرد مدلسازی شناختی (The Cognitive Modelling Approach):
در رویکرد مدل سازی شناختی، سعی بر آن است که هوش مصنوعی بر اساس شناخت و ادراک انسان ساخته شود، و در آن نحوه تفکر با استفاده از آزمایشات روانشناختی مورد مطالعه قرار میگیرد تا مدلی بر اساس آن تهیه شود. علاوه بر آن، مغز با استفاده از MRI به تصویر کشیده میشود تا نحوه عملکرد مغز در موقعیتهای مختلف مورد مطالعه قرار گیرد و به صورت کد پیاده سازی شود.
✔️ رویکرد قاعده تفکر (The Law of Thought Approach):
قاعده تفکر لیستی بزرگ از حالات منطقی برای توضیح رفتار ذهن است. این قواعد و توضیحات را میتوان به کد تبدیل کرد و به صورت الگوریتم در هوش مصنوعی پیاده سازی نمود. رویکرد نیاز به اعمال ظریفترین نکات و جزئیات را دارد، چون ممکن است راه حل یک مسئله در عمل و تئوری متفاوت باشد. همچنین چون از نتیجه بسیاری از اعمالی که انجام میدهیم اطمینان کامل نداریم، اگر پارامترها زیاد باشند نمیتوانیم آن اعمال را به الگوریتم تبدیل کنیم.
✔️ رویکرد عامل منطقی (The Rational Agent Approach):
بر اساس رویکرد قاعده تفکر، هر موجودیت باید بر پایهی توضیحات منطقی عمل کند. اما بعضی از مواقع راه حل منطقی درستی وجود ندارد، چون پیامدهای متعدد و متفاوتی از هر پیامد قبلی بوجود میآید. رویکرد عامل منطقی سعی میکند منطقیترین انتخاب ممکن را در شرایط فعلی پیدا کند. در نتیجه عاملی پویا تر با قابلیت مطابقت بیشتری خواهیم داشت.
#ai #artificial_intelligence #turing_test #machine_learning #law_of_thought #cognitive_modelling #rational_agent
اما چگونه میتوان یک هوش مصنوعی را ارزیابی کرد؟ حتی اگر به جایی برسیم که هوش مصنوعی بتواند مثل انسان رفتار کند، چگونه میتوانیم از ثبات رفتاری آن اطمینان حاصل کنیم؟
از روشهای مختلفی استفاده برای ارزیابی و تعیین سطح هوش مصنوعی استفاده میشود که در ادامه به طور مختصر به آنها میپردازیم:
✔️ قانون تورینگ (Turing Test):
اساس قانون تورینگ این است که دستگاه بتواند مکالمهای را با انسان انجام دهد طوری که انسان نتواند تشخیص بدهد که با ماشین مکالمه داشته. برای رسیدن به این سطح، هوش مصنوعی باید دارای خصوصیاتی مثل پردازش زبان جهت برقراری ارتباط، ارائه دانش به عنوان حافظه، استفاده از اطلاعات ذخیره شده و منطق خودکار جهت حل مسائل و نتیجه گیری، و یادگیری ماشین برای فهمیدن الگوها و دنبالههای جدید و مطابقت با شرایط مختلف باشد.
✔️ رویکرد مدلسازی شناختی (The Cognitive Modelling Approach):
در رویکرد مدل سازی شناختی، سعی بر آن است که هوش مصنوعی بر اساس شناخت و ادراک انسان ساخته شود، و در آن نحوه تفکر با استفاده از آزمایشات روانشناختی مورد مطالعه قرار میگیرد تا مدلی بر اساس آن تهیه شود. علاوه بر آن، مغز با استفاده از MRI به تصویر کشیده میشود تا نحوه عملکرد مغز در موقعیتهای مختلف مورد مطالعه قرار گیرد و به صورت کد پیاده سازی شود.
✔️ رویکرد قاعده تفکر (The Law of Thought Approach):
قاعده تفکر لیستی بزرگ از حالات منطقی برای توضیح رفتار ذهن است. این قواعد و توضیحات را میتوان به کد تبدیل کرد و به صورت الگوریتم در هوش مصنوعی پیاده سازی نمود. رویکرد نیاز به اعمال ظریفترین نکات و جزئیات را دارد، چون ممکن است راه حل یک مسئله در عمل و تئوری متفاوت باشد. همچنین چون از نتیجه بسیاری از اعمالی که انجام میدهیم اطمینان کامل نداریم، اگر پارامترها زیاد باشند نمیتوانیم آن اعمال را به الگوریتم تبدیل کنیم.
✔️ رویکرد عامل منطقی (The Rational Agent Approach):
بر اساس رویکرد قاعده تفکر، هر موجودیت باید بر پایهی توضیحات منطقی عمل کند. اما بعضی از مواقع راه حل منطقی درستی وجود ندارد، چون پیامدهای متعدد و متفاوتی از هر پیامد قبلی بوجود میآید. رویکرد عامل منطقی سعی میکند منطقیترین انتخاب ممکن را در شرایط فعلی پیدا کند. در نتیجه عاملی پویا تر با قابلیت مطابقت بیشتری خواهیم داشت.
#ai #artificial_intelligence #turing_test #machine_learning #law_of_thought #cognitive_modelling #rational_agent
Telegram
پرسش های متداول
#FAQ
⁉️ نحوه گرفتن خوابگاه چگونه است، از چه طریقی باید برای آن اقدام کرد و تا چه زمانی مهلت داریم؟
💭 همانگونه که در اطلاعیه مربوط به خوابگاه در کانال توضیح دادیم، برای گرفتن خوابگاه باید به آقای هادیان (@AmirHoseinHadian) پیام بدین تا هماهنگی های لازم انجام شود. واضح است که چون این فرایند کمی برای مجموعه ما و دانشگاه زمان گیر است پس بهتر است افرادی که به خوابگاه نیاز دارند سریعتر اقدام به درخواست و ثبت نام کنند لازم به ذکر است که تعدادی محدود خوابگاه برای این رویداد در نظر گرفته شده است پس اولویت با افرادی است که زودتر درخواست خود را ثبت نمایند.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
#FAQ
⁉️ نحوه گرفتن خوابگاه چگونه است، از چه طریقی باید برای آن اقدام کرد و تا چه زمانی مهلت داریم؟
💭 همانگونه که در اطلاعیه مربوط به خوابگاه در کانال توضیح دادیم، برای گرفتن خوابگاه باید به آقای هادیان (@AmirHoseinHadian) پیام بدین تا هماهنگی های لازم انجام شود. واضح است که چون این فرایند کمی برای مجموعه ما و دانشگاه زمان گیر است پس بهتر است افرادی که به خوابگاه نیاز دارند سریعتر اقدام به درخواست و ثبت نام کنند لازم به ذکر است که تعدادی محدود خوابگاه برای این رویداد در نظر گرفته شده است پس اولویت با افرادی است که زودتر درخواست خود را ثبت نمایند.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience
Title: supervised learning in spiking neural networks
Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience
Title: supervised learning in spiking neural networks
Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎
🧠 کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
🏛 محل برگزاری: تالار دانشکده مهندسی برق دانشگاه شهید بهشتی.
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
👨🏻🏫 با حضور برجسته ترین سخنرانان یادگیری عمیق در جهان.
👨🏻💻 به همراه بخش های Hands-On با منتورهای مجرب و حرفهای در کارگاه یادگیری عمیق.
📃 با اعطای گواهی معتبر از سوی پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
✅ همرا با پذیرایی و ناهار.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی مدرسان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021-2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
(Deep Learning and Neural Networks)
📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.
📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.
🏛 محل برگزاری: تالار دانشکده مهندسی برق دانشگاه شهید بهشتی.
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
👨🏻🏫 با حضور برجسته ترین سخنرانان یادگیری عمیق در جهان.
👨🏻💻 به همراه بخش های Hands-On با منتورهای مجرب و حرفهای در کارگاه یادگیری عمیق.
📃 با اعطای گواهی معتبر از سوی پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.
✅ همرا با پذیرایی و ناهار.
📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی مدرسان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy
@CMPLab
☎️ 021-2591 7391
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
پرسش های متداول
#FAQ
⁉️ در کارگاه یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟
💭 در کارگاه یادگیری عمیق سرفصل های مقدماتی و پیشرفته شبکه های عصبی از جمله شبکه های MLP که عموما برای طبقه بندی داده ها و تحلیل داده ها استفاده می شود، شبکه های CNN که معمولا برای طبقه بندی داده های تصویری استفاده میشود و کاربرد وسیعی در بینایی ماشین دارد و همینطور شبکه های عصبی spiking که نوعی از شبکه های عصبی هستند که بیشتر شبیه مدل بیولوزیکی شبکه های عصبی هستند که به عنوان پلی میان علم یادگیری ماشین و علوم اعصاب می باشد مورد بحث قرار خواهد گرفت و سپس در بخش های Hands-on به پیاده سازی پروژه های عملی و برنامه نویسی این شبکه ها می پردازیم تا جایی که بتوانید برای حل مسئله های مختلف این شبکه ها را پیاده سازی کنید. این کارگاه می تواند برای تمامی علاقمندانی که می خواهند به این حوزه ورود پیدا کنند و افرادی که می خواهند مباحث پیشرفته را به خوبی فرا بگیرند مناسب خواهد بود. لازم به ذکر است که این مباحث به زبان فارسی ارائه خواهد شد.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
#FAQ
⁉️ در کارگاه یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟
💭 در کارگاه یادگیری عمیق سرفصل های مقدماتی و پیشرفته شبکه های عصبی از جمله شبکه های MLP که عموما برای طبقه بندی داده ها و تحلیل داده ها استفاده می شود، شبکه های CNN که معمولا برای طبقه بندی داده های تصویری استفاده میشود و کاربرد وسیعی در بینایی ماشین دارد و همینطور شبکه های عصبی spiking که نوعی از شبکه های عصبی هستند که بیشتر شبیه مدل بیولوزیکی شبکه های عصبی هستند که به عنوان پلی میان علم یادگیری ماشین و علوم اعصاب می باشد مورد بحث قرار خواهد گرفت و سپس در بخش های Hands-on به پیاده سازی پروژه های عملی و برنامه نویسی این شبکه ها می پردازیم تا جایی که بتوانید برای حل مسئله های مختلف این شبکه ها را پیاده سازی کنید. این کارگاه می تواند برای تمامی علاقمندانی که می خواهند به این حوزه ورود پیدا کنند و افرادی که می خواهند مباحث پیشرفته را به خوبی فرا بگیرند مناسب خواهد بود. لازم به ذکر است که این مباحث به زبان فارسی ارائه خواهد شد.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
پرسش های متداول
#FAQ
⁉️ در سمپوزیم یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟
💭 در سمپوزیم یادگیری عمیق مباحث پرکاربرد و نوینی که امروزه در علوم کامپیوتر، علوم اعصاب و علوم شناختی بسیار داغ میباشند مورد بحث قرار میگیرند. در این سمپوزیم از بهترین سخنرانان که در بهترین دانشگاههای دنیا هستند دعوت شده تا بتوانیم دورهای سه روزه را با بالاترین کیفیت برای علاقمندان و فعالان این حوزه برگزار نماییم. هدف از برگزاری سمپوزیم معرفی مطالعات و تحقیقات جدید و همینطور رونمایی از آخرین دستاوردهای بزرگان حوزه یادگیری عمیق برای شرکتکنندگان است. سمپوزیم برای تمامی علاقمندانی که می خواهند در این حوزه به پژوهش بپردازند و نیز افرادی که می خواهند از به روز ترین روش ها و الگوریتم ها برای کار تخصصی خود در حیطه های مربوطه استفاده کنند مفید خواهد بود. در واقع این سمپوزیم به عنوان دوره مکمل برای کارگاه یادگیری عمیق برنامه ریزی شده تا شرکت کنندگان کارگاه با شرکت در این سمپوزیم بتوانند بیشترین بازده را بدست آورند. همانگونه که واضح است برخی از سخنرانیها که مربوط به اساتید خارجی است به زبان انگلیسی و مابقی سخنرانیها به زبان فارسی خواهد بود.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
#FAQ
⁉️ در سمپوزیم یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟
💭 در سمپوزیم یادگیری عمیق مباحث پرکاربرد و نوینی که امروزه در علوم کامپیوتر، علوم اعصاب و علوم شناختی بسیار داغ میباشند مورد بحث قرار میگیرند. در این سمپوزیم از بهترین سخنرانان که در بهترین دانشگاههای دنیا هستند دعوت شده تا بتوانیم دورهای سه روزه را با بالاترین کیفیت برای علاقمندان و فعالان این حوزه برگزار نماییم. هدف از برگزاری سمپوزیم معرفی مطالعات و تحقیقات جدید و همینطور رونمایی از آخرین دستاوردهای بزرگان حوزه یادگیری عمیق برای شرکتکنندگان است. سمپوزیم برای تمامی علاقمندانی که می خواهند در این حوزه به پژوهش بپردازند و نیز افرادی که می خواهند از به روز ترین روش ها و الگوریتم ها برای کار تخصصی خود در حیطه های مربوطه استفاده کنند مفید خواهد بود. در واقع این سمپوزیم به عنوان دوره مکمل برای کارگاه یادگیری عمیق برنامه ریزی شده تا شرکت کنندگان کارگاه با شرکت در این سمپوزیم بتوانند بیشترین بازده را بدست آورند. همانگونه که واضح است برخی از سخنرانیها که مربوط به اساتید خارجی است به زبان انگلیسی و مابقی سخنرانیها به زبان فارسی خواهد بود.
⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Dr. Ali Yoonessi,
Tehran University of Medical Sciences
Title: What can visual system neural networks tell us about better agent-based deep learning models? A prospect.
Abstract: Ample amount of evidence suggests that the visual system is optimized to process the environment that we live in. Interactions of several types of neurons during development creates a sophisticated neural network. What are the properties of these biological neural cells or agents that we can use for creating new models of agent-based neural networks?
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Dr. Ali Yoonessi,
Tehran University of Medical Sciences
Title: What can visual system neural networks tell us about better agent-based deep learning models? A prospect.
Abstract: Ample amount of evidence suggests that the visual system is optimized to process the environment that we live in. Interactions of several types of neurons during development creates a sophisticated neural network. What are the properties of these biological neural cells or agents that we can use for creating new models of agent-based neural networks?
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎
🎯 Deep Learning and Neural Networks Symposium and Workshop
👨🏻🎓 Speaker introduction:
Dr. Mir-Shahram Safari,
Shahid Beheshti University of Medical Sciences (SBMU)
Title: Neurobiology and Neurophysiology of Neural Networks
Abstract: Neural networks in brain made by different cell-types with different morphology, molecular profile and electrophysiological properties that connected together with precise targeting bias. Synaptic connection between specific cell types have specific structural and functional features that make them different. Learning mechanism in brain obey from architecture of neural microcircuits and synaptic features. Inhibitory control of interneurons on different dendritic compartments have an important role in information processing, synaptic plasticity and learning in neural microcircuits. Different organization of interneurons in neural motifs made required control for example by feedback, feedforward or lateral inhibition. How different brain microcircuits involved in processing of information and learning and memory is very important open question in neuroscience. I will review latest updates on this issue in my talk.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
👨🏻🎓 Speaker introduction:
Dr. Mir-Shahram Safari,
Shahid Beheshti University of Medical Sciences (SBMU)
Title: Neurobiology and Neurophysiology of Neural Networks
Abstract: Neural networks in brain made by different cell-types with different morphology, molecular profile and electrophysiological properties that connected together with precise targeting bias. Synaptic connection between specific cell types have specific structural and functional features that make them different. Learning mechanism in brain obey from architecture of neural microcircuits and synaptic features. Inhibitory control of interneurons on different dendritic compartments have an important role in information processing, synaptic plasticity and learning in neural microcircuits. Different organization of interneurons in neural motifs made required control for example by feedback, feedforward or lateral inhibition. How different brain microcircuits involved in processing of information and learning and memory is very important open question in neuroscience. I will review latest updates on this issue in my talk.
⭕️ Check our website for more information
⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
📢 @LoopAcademy
📢 @CMPLab
🌐 www.loopacademy.ir
🌐 www.cmplab.ir
Telegram
attach 📎