Telegram Web
📣 معرفی سخنرانان سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)

⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.

📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.

⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.

📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021 - 2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
📣 معرفی سخنرانان کارگاه یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)


⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.

📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.

⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.

📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021 - 2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
📣 برنامه زمانی کارگاه یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)


⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.

📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021 - 2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
📣 برنامه زمانی سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)

⚙️ برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.

📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021 - 2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Professor Wulfram Gerstner,
Director of the Laboratory of Computational Neuroscience (LCN) at the EPFL

Title: Eligibility traces and three-factor rules of synaptic plasticity.

Abstract: Hebbian plasticity combines two factors: presynaptic activity must occur together with some postsynaptic variable (spikes, voltage deflection, calcium elevation ...). In three-factor learning rules the combination of the two Hebbian factors is not sufficient, but leaves a trace at the synapses (eligibility trace) which decays over a few seconds; only if a third factor (neuromodulator signal) is present, either simultaneously or within a short a delay, the actual change of the synapse via long-term plasticity is triggered. After a review of classic theories and recent evidence of plasticity traces from plasticity experiments in rodents, I will discuss two studies from my own lab: the first one is a modeling study of reward-based learning with spiking neurons using an actor-critic architecture; the second one is a joint theory-experimental study showing evidence for eligibility traces in human behavior and pupillometry. Extensions from reward-based learning to surprise-based learning will be indicated.

⭕️ Check our website for more information

⚙️
Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Professor James L. McClelland,
Co-Director, Center for Mind, Brain, Computation and Technology, Stanford University

Title: Human and Machine Learning: How each has taught us about the other, and what is left to learn

Abstract: In this talk, I will describe work at the interface between human and machine learning. The talk will draw on the effects of brain damage on human learning and memory, the patterns of learning that humans exhibit, and computational models based on artificial neural networks that reveal properties shared by human and artificial neural networks. In the latter part of the talk, we will discuss challenges posed to artificial learning systems by aspects of human learning we still do not fully understand in terms of the underlying neural computations.

⭕️ Check our website for more information

⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
📌آشنایی با فناوری هوش مصنوعی

با گذشت زمان و پیشرفت علم و فناوری در زمینه کامپیوتر و نرم‌افزار، موضوع AI یا هوش مصنوعی بیشتر و بیشتر سر زبان‌ها می‌آید. هوش مصنوعی چیست؟ به طور کل هوش مصنوعی یعنی دستگاهی که مثل انسان قادر به تفکر، تجزیه و تحلیل، برنامه‌ریزی، تشخیص و پردازش باشد.
هوش مصنوعی به سه دسته محدود (Artificial Narrow Intelligence)، عمومی (Artificial General Intelligence) و ابرهوش (Artificial Super Intelligence) تقسیم می‌شود که اولی در حوزه‌ی خاصی عمل می‌کند (به عنوان مثال ترجمه زبان) و گونه‌ایست که ما امروزه با آن سروکار داریم در حالی که مورد دوم بازه‌ی عملیاتی خاصی ندارد و با قرار گرفتن در هر محیطی، شرایط و اوضاع آنرا می‌سنجد و مسائل گوناگونی را حل می‌کند و آخرین مورد ماشینی خواهد بود که در تمامی اعمال متکی بر نیروی تعقل و تصمیم‌گیری از انسان بهتر عمل کند.

📣 @LoopAcademy

📌 تاریخچه هوش مصنوعی

بین سال‌های 1940 تا 1950، تعدادی از دانشمندان از رشته‌های مختلف، شروع به بررسی امکان ساخت هوش مصنوعی کردند و در نتیجه‌ی آن، گرایش به تحقیق در این حوزه بیشتر شد تا اینکه در سال 1956 به یک رشته‌ی پژوهشی تبدیل شد (Dartmouth College, Hanover, New Hampshire). اصطلاح هوش مصنوعی اولین بار توسط جان مک‌کارتی مطرح شد. او به همراه آلن تورینگ، ماروین مینسکی، آلن نول و هربرت سیمون به عنوان پیشکسوتان این عرصه محسوب می‌شوند. در اوایل چون ساخت هوش مصنوعی در ماشین کار دشواری بود، با وجود بودجه‌ی هنگفت بین المللی پیشرفتی حاصل نمی‌شد، سپس، در سال‌های 1970 تا 1990، به دلیل کمبود بودجه مورد نیاز، پیشرفت خاصی حاصل نشد. اما بعد از آن، گرایش شرکت‌های آمریکایی به هوش مصنوعی بازگشت و دولت ژاپن نیز برنامه‌هایی را برای ساخت نسل پنجم رایانه‌ها در جهت پیشرفت هوش مصنوعی طراحی کرد و نهایتا در سال 1997، Deep Blue توانست گری کاسپاروف را در شطرنج شکست دهد.
با گذشت زمان و پیشرفت هوش مصنوعی و سخت افزار شرکت‌ها و دولت‌های بیشتری شروع به بکارگیری این فناوری کرده‌اند. در پانزده سال اخیر، شرکت‌هایی نظیر Google، Amazon، Baidu و... با استفاده از هوش مصنوعی به برتری‌های تجاری زیادی دست یافته‌اند. این فناوری علاوه بر تاثیرگذاری بر مباحث مختلف، بخش بزرگی از بازار را نیز تحت کنترل خود درآورده، چرا که امروزه، هوش مصنوعی در بسیاری از خدمات اینترنتی ادغام شده.

📣 @LoopAcademy

#ai #artificial_intelligence #alan_turing #john_mccarthy #computer_science #machine_learning #deep_blue ⁠⁠⁠⁠⁠
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Professor Hugo Larochelle,
Google Brain

Title: Learning to generalize from few examples with meta-learning

Abstract: A lot of the recent progress on many AI tasks were enabled in part by the availability of large quantities of labeled data for deep learning. Yet, humans are able to learn concepts from as little as a handful of examples. Meta-learning has been a very promising framework for addressing the problem of generalizing from small amounts of data, known as few-shot learning. In this talk, I’ll present an overview of the recent research that has made exciting progress on this topic. I will also share my thoughts on the challenges and research opportunities that remain in few-shot learning, including a proposal for a new benchmark.

⭕️ Check our website for more information

⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
📣 اطلاعیه خوابگاه برای شرکت کنندگان در کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی

جهت رفاه حال دانشجویان مقیم سایر شهر ها و با هماهنگی های انجام شده با دانشگاه شهید بهشتی، تعداد محدودی خوابگاه برای دانشجویان ثبت نامی کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی فراهم شده است. لذا دانشجویانی که قصد اقامت در خوابگاه را دارند قبل از ثبت نام با شماره 09195849138 (آقای هادیان) تماس حاصل فرمایند و یا به آیدی تلگرام @AmirHoseinHadian پیام ارسال نمایند و بعد از هماهنگی خوابگاه در وبسایت ثبت نام نمایند.

⚠️ ظرفیت خوابگاه محدود می باشد.

❗️اولویت با افرادی است که زودتر اقدام نمایند.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.


⚙️
برگزار کنندگان: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.

📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.


📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی سخنرانان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021 - 2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
Loop Academy | آکادمیِ لوپ pinned «📣 اطلاعیه خوابگاه برای شرکت کنندگان در کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی جهت رفاه حال دانشجویان مقیم سایر شهر ها و با هماهنگی های انجام شده با دانشگاه شهید بهشتی، تعداد محدودی خوابگاه برای دانشجویان ثبت نامی کارگاه و سمپوزیم یادگیری عمیق و شبکه…»
پرسش های متداول
#FAQ

⁉️ مدارک کارگاه و سمپوزیم یادگیری عمیق از کجا صادر میشود، آیا قابل ترجمه است؟

💭 مدارک این دوره از طرف دانشگاه شهید بهشتی صادر خواهد شد و توسط معاونت پژوهشی پژوهشکده علوم شناختی و مغز و همینطور دبیر علمی این دوره امضا خواهد شد که این مدرک معتبر بوده و قابل ترجمه می باشد.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
پرسش های متداول
#FAQ

⁉️ تا چه تاریخی امکان ثبت نام در این رویداد موجود است؟

💭 از آنجایی که ظرفیت کارگاه و سمپوزیم یادگیری عمیق رو به اتمام است به علاقمندان به شرکت در این رویداد پیشنهاد میشود هر چه سریعتر اقدام به ثبت نام نمایند زیرا ظرفیت ها به هیچ وجه افزایش نخواهند یافت.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
📌 شیوه‌های ارزیابی هوش مصنوعی

اما چگونه می‌توان یک هوش مصنوعی را ارزیابی کرد؟ حتی اگر به جایی برسیم که هوش مصنوعی بتواند مثل انسان رفتار کند، چگونه می‌توانیم از ثبات رفتاری آن اطمینان حاصل کنیم؟
از روش‌های مختلفی استفاده برای ارزیابی و تعیین سطح هوش مصنوعی استفاده می‌شود که در ادامه به طور مختصر به آنها می‌پردازیم:

✔️ قانون تورینگ (Turing Test):
اساس قانون تورینگ این است که دستگاه بتواند مکالمه‌ای را با انسان انجام دهد طوری که انسان نتواند تشخیص بدهد که با ماشین مکالمه داشته. برای رسیدن به این سطح، هوش مصنوعی باید دارای خصوصیاتی مثل پردازش زبان جهت برقراری ارتباط، ارائه دانش به عنوان حافظه، استفاده از اطلاعات ذخیره شده و منطق خودکار جهت حل مسائل و نتیجه گیری، و یادگیری ماشین برای فهمیدن الگوها و دنباله‌های جدید و مطابقت با شرایط مختلف باشد.

✔️ رویکرد مدل‌سازی شناختی (The Cognitive Modelling Approach):
در رویکرد مدل سازی شناختی، سعی بر آن است که هوش مصنوعی بر اساس شناخت و ادراک انسان ساخته شود، و در آن نحوه تفکر با استفاده از آزمایشات روانشناختی مورد مطالعه قرار می‌گیرد تا مدلی بر اساس آن تهیه شود. علاوه بر آن، مغز با استفاده از MRI به تصویر کشیده می‌شود تا نحوه عملکرد مغز در موقعیت‌های مختلف مورد مطالعه قرار گیرد و به صورت کد پیاده سازی شود.

✔️ رویکرد قاعده تفکر (The Law of Thought Approach):
قاعده تفکر لیستی بزرگ از حالات منطقی برای توضیح رفتار ذهن است. این قواعد و توضیحات را می‌توان به کد تبدیل کرد و به صورت الگوریتم در هوش مصنوعی پیاده سازی نمود. رویکرد نیاز به اعمال ظریف‌ترین نکات و جزئیات را دارد، چون ممکن است راه حل یک مسئله در عمل و تئوری متفاوت باشد. همچنین چون از نتیجه بسیاری از اعمالی که انجام می‌دهیم اطمینان کامل نداریم، اگر پارامترها زیاد باشند نمی‌توانیم آن اعمال را به الگوریتم تبدیل کنیم.

✔️ رویکرد عامل منطقی (The Rational Agent Approach):
بر اساس رویکرد قاعده تفکر، هر موجودیت باید بر پایه‌ی توضیحات منطقی عمل کند. اما بعضی از مواقع راه حل منطقی درستی وجود ندارد، چون پیامدهای متعدد و متفاوتی از هر پیامد قبلی بوجود می‌آید. رویکرد عامل منطقی سعی می‌کند منطقی‌ترین انتخاب ممکن را در شرایط فعلی پیدا کند. در نتیجه عاملی پویا تر با قابلیت مطابقت بیشتری خواهیم داشت.

#ai #artificial_intelligence #turing_test #machine_learning #law_of_thought #cognitive_modelling #rational_agent ⁠⁠⁠⁠⁠
پرسش های متداول
#FAQ

⁉️ نحوه گرفتن خوابگاه چگونه است، از چه طریقی باید برای آن اقدام کرد و تا چه زمانی مهلت داریم؟

💭 همانگونه که در اطلاعیه مربوط به خوابگاه در کانال توضیح دادیم، برای گرفتن خوابگاه باید به آقای هادیان (@AmirHoseinHadian) پیام بدین تا هماهنگی های لازم انجام شود. واضح است که چون این فرایند کمی برای مجموعه ما و دانشگاه زمان گیر است پس بهتر است افرادی که به خوابگاه نیاز دارند سریعتر اقدام به درخواست و ثبت نام کنند لازم به ذکر است که تعدادی محدود خوابگاه برای این رویداد در نظر گرفته شده است پس اولویت با افرادی است که زودتر درخواست خود را ثبت نمایند.


⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience

Title: supervised learning in spiking neural networks

Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.

⭕️ Check our website for more information

⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
🧠 کارگاه و سمپوزیم یادگیری عمیق و شبکه های عصبی
(Deep Learning and Neural Networks)


📅 تاریخ برگزاری کارگاه: 3 الی 5 اسفند ماه 98.

📅 تاریخ برگزاری سمپوزیم: 6 الی 8 اسفند ماه 98.

🏛 محل برگزاری: تالار دانشکده مهندسی برق دانشگاه شهید بهشتی.

⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.

👨🏻‍🏫 با حضور برجسته ترین سخنرانان یادگیری عمیق در جهان.

👨🏻‍💻 به همراه بخش های Hands-On با منتورهای مجرب و حرفه‌ای در کارگاه یادگیری عمیق.

📃 با اعطای گواهی معتبر از سوی پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ.

همرا با پذیرایی و ناهار.

📢 برای کسب اطلاعات بیشتر، برنامه برگزاری، معرفی مدرسان و ... به کانال های تلگرامی زیر مراجعه فرمایید:
@LoopAcademy

@CMPLab


☎️ 021-2591 7391

🌐 www.loopacademy.ir

🌐 www.cmplab.ir
پرسش های متداول
#FAQ

⁉️ در کارگاه یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟

💭 در کارگاه یادگیری عمیق سرفصل های مقدماتی و پیشرفته شبکه های عصبی از جمله شبکه های MLP که عموما برای طبقه بندی داده ها و تحلیل داده ها استفاده می شود، شبکه های CNN که معمولا برای طبقه بندی داده های تصویری استفاده میشود و کاربرد وسیعی در بینایی ماشین دارد و همینطور شبکه های عصبی spiking که نوعی از شبکه های عصبی هستند که بیشتر شبیه مدل بیولوزیکی شبکه های عصبی هستند که به عنوان پلی میان علم یادگیری ماشین و علوم اعصاب می باشد مورد بحث قرار خواهد گرفت و سپس در بخش های Hands-on به پیاده سازی پروژه های عملی و برنامه نویسی این شبکه ها می پردازیم تا جایی که بتوانید برای حل مسئله های مختلف این شبکه ها را پیاده سازی کنید. این کارگاه می تواند برای تمامی علاقمندانی که می خواهند به این حوزه ورود پیدا کنند و افرادی که می خواهند مباحث پیشرفته‌ را به خوبی فرا بگیرند مناسب خواهد بود. لازم به ذکر است که این مباحث به زبان فارسی ارائه خواهد شد.

⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
پرسش های متداول
#FAQ

⁉️ در سمپوزیم یادگیری عمیق چه مباحثی را پوشش می دهید، این دوره برای چه افرادی مناسب است؟

💭 در سمپوزیم یادگیری عمیق مباحث پرکاربرد و نوینی که امروزه در علوم کامپیوتر، علوم اعصاب و علوم شناختی بسیار داغ می‌باشند مورد بحث قرار می‌گیرند. در این سمپوزیم از بهترین سخنرانان که در بهترین دانشگاه‌های دنیا هستند دعوت شده تا بتوانیم دوره‌ای سه روزه را با بالاترین کیفیت برای علاقمندان و فعالان این حوزه برگزار نماییم. هدف از برگزاری سمپوزیم معرفی مطالعات و تحقیقات جدید و همین‌طور رونمایی از آخرین دستاورد‌های بزرگان حوزه یادگیری عمیق برای شرکت‌کنندگان است. سمپوزیم برای تمامی علاقمندانی که می خواهند در این حوزه به پژوهش بپردازند و نیز افرادی که می خواهند از به روز ترین روش ها و الگوریتم ها برای کار تخصصی خود در حیطه های مربوطه استفاده کنند مفید خواهد بود. در واقع این سمپوزیم به عنوان دوره مکمل برای کارگاه یادگیری عمیق برنامه ریزی شده تا شرکت کنندگان کارگاه با شرکت در این سمپوزیم بتوانند بیشترین بازده را بدست آورند. همانگونه که واضح است برخی از سخنرانی‌ها که مربوط به اساتید خارجی است به زبان انگلیسی و مابقی سخنرانی‌ها به زبان فارسی خواهد بود.

⭕️ برای مشاهده جزئیات بیشتر و ثبت نام روی این لینک کلیک کنید.
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Dr. Ali Yoonessi,
Tehran University of Medical Sciences

Title: What can visual system neural networks tell us about better agent-based deep learning models? A prospect.

Abstract: Ample amount of evidence suggests that the visual system is optimized to process the environment that we live in. Interactions of several types of neurons during development creates a sophisticated neural network. What are the properties of these biological neural cells or agents that we can use for creating new models of agent-based neural networks?

⭕️ Check our website for more information

⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
🎯 Deep Learning and Neural Networks Symposium and Workshop

👨🏻‍🎓 Speaker introduction:

Dr. Mir-Shahram Safari,
Shahid Beheshti University of Medical Sciences (SBMU)

Title: Neurobiology and Neurophysiology of Neural Networks

Abstract: Neural networks in brain made by different cell-types with different morphology, molecular profile and electrophysiological properties that connected together with precise targeting bias. Synaptic connection between specific cell types have specific structural and functional features that make them different. Learning mechanism in brain obey from architecture of neural microcircuits and synaptic features. Inhibitory control of interneurons on different dendritic compartments have an important role in information processing, synaptic plasticity and learning in neural microcircuits. Different organization of interneurons in neural motifs made required control for example by feedback, feedforward or lateral inhibition. How different brain microcircuits involved in processing of information and learning and memory is very important open question in neuroscience. I will review latest updates on this issue in my talk.


⭕️ Check our website for more information

⚙️ Organizers: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy


📢 @LoopAcademy
📢 @CMPLab

🌐 www.loopacademy.ir
🌐 www.cmplab.ir
2025/07/14 09:59:07
Back to Top
HTML Embed Code: