شبکههای عصبی و یادگیری عمیق -
Announcements
امتحان پایان ترم
فصل اول - مقدمه 4
شرح: فصل اول به خواستگاه اصلی شبکه های عصبی اشاره می
کند. در این راستا به تعریف شبکه عصبی،
نورن با ساختار طبیعی، انواع نرون در بدن موجودات و به برخی نکات و قابلیت های یادگیری در شبکه های طبیعی می
پردازد. سپس توضیح داده می شود چطور بر اساس الهام از این شبکه ها سعی شده است
شبکه های عصبی مصنوعی توسعه یابد و به کاربردها و قابلیتهای توسعه یافته اشاره می
کند. همچنین در این فصل به برخی مفاهیم ابتدایی در مورد معماری شبکه و روش آموزش
پرداخته شده و نهایتا به معرفی اولین مدل ساده ریاضی از عملکرد نرون و برخی قابلیت
های مدلسازی آن می پردازد.
-
معرفی کوتاه از اهداف و سرفصلهای فصل اول
در این ویدئو، خوشامدگویی و معرفی کوتاه از اهداف و سرفصلهای فصل اول صورت میگیرد.
-
سیستم عصبی طبیعی و وظایف و عملکردهای مختلف آن
در این ویدئو درباره سیستم عصبی طبیعی انسان صحبت میشود. سپس با اشاره به انواع عملکردهای مختلف برای سلولهای عصبی، دسته بندی و کاربردهای شبکههای عصبی مصنوعی تعریف شده را معرفی میکنیم.
-
یادگیری در شبکههای عصبی مصنوعی چیست؟
شرحی بسیار کوتاه بر جزئیاتی مانند فعالساز خروجی در یک واحد نورون مصنوعی و دو دسته یادگیری شبکههای عصبی مصنوعی داده میشود (نظارت شده و نظارت نشده).
-
اولین الگوریتم نورون مصنوعی، Mcculloch & Pitz
در این ویدئو اولین طراحی و الگوریتم نورون مصنوعی ابتدایی با نام Mcculloch & Pitz Neuron را شرح میدهیم.
فصل دوم - شبکههای عصبی برای کاربردهای دسته بندی و خطی سازی 22
در این فصل به معرفی شبکه های عصبی به منظور کاربرد طبقه بندی و رگرسیون پرداخته شده است. برای این منظور ابتدا تعریف اولیه ای از معماری کلی شبکه عصبی برای این دو کاربرد ارایه می شود. سپس شبکه های ساده تک لایه و دولایه برای کاربرد طبقه بندی ارایه می شود. سپس سراغ شبکه های پرسپترون با تعداد لایه بیشتر و با یادگیری سیستماتیک پرداخته می شود. در این راستا شبکه های کاهش دهنده ابعاد مثل اتوانکودرها و ماشین های بولترمن محدود معرفی می گردد و بر این اساس معماری شبکه های عصبی باور عمیق توضیح داده خواهد شد. در ادامه شبکه های عصبی کانلوشنال به عنوان شبکه های قدرتمند حذف اغتشاش و اعوجاج البته با وجود لایه های متعدد کانولوشنی و ادغام و لایه های تمام متصل معرفی می گردند. در انتها برخی کابردها و توسعه های مربوط به شبکه کانلوشنال شرح داده می شود.
-
مقدمه مباحث دسته بندی و خطی سازی
در این ویدئو مفاهیم دسته بندی یا classification و خطی سازی یا regression معرفی میشود. سپس آنها با همدیگر مقایسه میشود. در انتها هم شبکه عصبی مصنوعی تک لایه و میزان قدرت جداسازی آن معرفی و توضیح داده میشود.
-
Potential of one-layer NNs in classification
در این ویدئو با شبکه شامل نورون مصنوعی پرسپترون خطی آشنا میشوید.
-
الگوریتم یادگیری برای نورون مصنوعی پرسپترون خطی
در این ویدئو با الگوریتم یادگیری برای نورون مصنوعی پرسپترون خطی و قدمهای آن آشنا میشوید.
-
ادامه پرسپترون خطی و معرفی نورون مصنوعی AdaLine
در این ویدئو ابتدا ادامه پرسپترون خطی را خواهیم داشت و سپس نورون مصنوعی AdaLine و الگوریتم یادگیری آن را توضیح میدهیم.
-
یادگیری با روش Gradient Descent
در این ویدئو قاعده یادگیری با روش Gradient Descent جهت به روز رسانی وزنهای شبکه را شرح میدهیم.
-
شبکه مصنوعی Multi AdaLine (MAdaLine)
این ویدئو را ابتدا با ادامه بحث قاعده یادگیری Gradient Descent شروع میکنیم و در ادامه Multi AdaLine (MAdaLine) را شرح میدهیم که یک الگوریتم شبکه عصبی مصنوعی دیگر است.
-
شبکه MLP با یک لایه مخفی
در این ویدئو درباره اضافه کردن یک لایه مخفی به شبکه ای با نورون Perceptron صحبت میکنیم و میخواهیم ببینم الگوریتم یادگیری آن به چه صورت است.
-
قاعده یادگیری برای شبکه MLP
در این ویدئو درباره نکات قاعده یادگیری برای شبکه MLP صحبت میکنیم.
-
مشتق زنجیره و آموزش شبکه MLP
در ویدئوی نهم درباره استفاده از مشتق زنجیره برای آموزش شبکه MLP صحبت میکنیم و نمونه ای از عملکرد این شبکه را میبینیم.
-
قاعده یادگیری برای شبکه MLP
در این ویدئو درباره نکات قاعده یادگیری برای شبکه MLP صحبت میکنیم.
-
مشتق زنجیره و آموزش شبکه MLP
در ویدئوی نهم درباره استفاده از مشتق زنجیره برای آموزش شبکه MLP صحبت میکنیم و نمونه ای از عملکرد این شبکه را میبینیم.
-
ادامه شبکه MLP و اضافه کردن دو لایه مخفی
در ویدئوی دهم ابتدای مثال بیشتری از عملکرد شبکه MLP با یک لایه مخفی میبینیم و سپس درباره این شبکه با وجود دولایه مخفی صحبت میکنیم.
-
مقدمه شبکههای عصبی مصنوعی عمیق و چندلایه
این ویدئو مقدمه ای بر شبکههای عصبی مصنوعی عمیق و چندلایه است. کمیهم درباره روش یادگیری این شبکهها تحت عنوان فاز Back Propagation صحبت میکنیم.
-
به روزرسانی وزنها و یادگیری در شبکههای عصبی مصنوعی چندلایه
در این ویدئو درباره به روزرسانی وزنها و یادگیری در شبکههای عصبی مصنوعی چندلایه صحبت میکنیم.
-
روشها و الگوریتمهای کاهش بعد دادهها
در این ویدئو درباره مفهوم کاهش بعد یا Dimensionality Reduction در کاربردهای شبکههای چندلایه خطی صحبت میکنیم.
-
ادامه بحث کاهش بعد
در ویدئوی چهاردهم توضیح مفهوم کاهش بعد دادهها در مسئله یادگیری عمیق را ادامه میدهیم و سپس دو مبحث شبکههای Auto-Encoder و Restricted Boltzmann Machine (RBM) را معرفی میکنیم.
-
ادامه بحث شبکه RBM و کاربرد کاهش بعد
در این ویدئو، به ساختار دیگری تحت عنوان Cascaded RBMs برای شبکه RBM اشاره میکنیم. در انتها هم با توجه به شبکههای کاهش بعد که تا به اینجا معرفی شده، نکاتی کلی درباره Deep Belief Network (DBN ها گفته میشود.
-
محدودیتها و توان شبکههای MLP و MADALIN
در این ویدئو درباره محدودیتها و توان شبکههای MLP و MADALIN در جداسازی دستههای مختلف موجود در دادهها صحبت میکنیم. این موارد مقدمه ای بر معرفی ساختار Convolutional Neural Networks خواهد بود.
-
مقدمه ای بر معرفی ساختار Convolutional Neural Networks
در این ویدئو به این مسئله میپردازیم که ذهن ما چطور دادههای موجود در تصاویری که از دنیای واقعی میبینیم را دسته بندی میکند و ما چطور میتوانیم شبکه ای مشابه داشته باشیم.
-
شبکههای عصبی مصنوعی پیچشی یا Convolutional Neural Networks
-
NNDL-HW1
-
NNDL-HW2
فصل سوم - شبکههای عصبی برای کاربردهای حافظه 18
در این فصل به معرفی شبکه های عصبی به منظور کاربرد حافظه سازی پرداخته می شود. در این راستا برخی شبکه های ساده تک لایه مبتنی بر یادگیری هب، برای بحث حافظه سازی معرفی می گردد. در این راستا معماری خود تداعی گر و دیگر تداعی گر در هر دوحالت پیش خور و بازگشتی معرفی می گردد و برخی جنبه ها مثل امکان همگرایی، ظرفیت حافظه و نحوه توسعه شبکه بحث می گردد. سپس شبکه های بازگشتی که بتوانند از دل یک سری داده متوالی در طی زمان تداعی الگو کنند معرفی می گردند. در این راستا ابتدا شبکه بازگشتی استاندارد معرفی می شود و پتانسیل آن در حافظه سازی و تداعی الگوی کوتاه مدت، بحث می شود. سپس شبکه های بازگشتی پیچیده تر که قدرت تولید حافظه و تداعی الگو با عمق ارتباطی بیشتر را دارا باشد معرفی خواهند شد.
-
7-108-111
-
7-112-117
-
7-117-122
-
7-122-135
-
2-1-13
-
2-13-23
-
2-23-36
-
2-36-55
-
3-1-6
-
3-7-14
-
3-15-19
-
3-20-26
-
3-27-34
-
3-35-41
-
3-40-47
-
3-55-73
-
3-48-55
-
ٔٔNNDL-HW3
فصل چهارم - شبکههای عصبی مبتنی بر مکانیزم 13
در این فصل شبکه های عصبی که بتوانند مسائل بدون سرپرستی را حل کنند معرفی می گردند. در ابتدا مقدمه ای راجع به اهمیت مسائل بدون سرپرستی و نحوه یادگیری آنها ارایه می شود. سپس چندین شبکه ساده تک لایه برای اینکه بتوانند بر اساس مکانیزم های ساده ای، مسائلی مثل بیشینه یابی سخت و بیشینه یابی نرم، طبقه بندی بر اساس فاصله همینگ و خوشه یابی را حل کنند معرفی می شوند. در ادامه شبکه توانمند GAN که می تواند برای حل دسته وسیعی از مسائل تولید الگو استفاده شود، معرفی می گردد. در انتها برخی توسعه های این شبکه معرفی خواهد شد.
-
4-1-5
-
4-5-7
-
4-7-11
-
4-12-16
-
4-16-20
-
4-20-30
-
4-31-36
-
4-36-41
-
4-41-52
-
4-53-63
-
4-63-79
-
درخواست صدور گواهينامه
-
NNDL-HW4