شبکههای عصبی و یادگیری عمیق
شبکه های عصبی در یادگیری عمیق شامل شبکه های عصبی کانولوشن،شبکه های عصبی بازگشتی و… می شود در این مطلب به آموزش شبکه های عصبی در یادگیری عمیق می پردازیم و انواع شبکه های عصبی را تعریف می کنیم که در یادگیری عمیق کاربرد دارند.
یادگیری عمیق زیر مجموعه ای از هوش مصنوعی است که در آن به جای انسان از ماشین استفاده می شود در ابتدا باید بگوییم که مغز انسان از رشته های عصبی تشکیل شده است که این عصب ها با هم در ارتباط اند و پردازش اطلاعات میکنند کارهایی که انجام میدهیم براساس ورودی هایی است که دریافت میکنیم و در اصل مغز ما مانند یک تابع رفتار میکند که ورودی هایی را میگیرد و عملیات انجام می دهد و خروجی به ما تحویل می دهد یادگیری عمیق نیز با استفاده از شبکه عصبی عمیق که مانند مغز انسان عمل می کند و پردازش انجام می دهد.
لطفا قبل از ثبت نام در دوره، نسبت به تاریخ های اعلام شده دقت فرمایید:
* شروع ثبت نام: از 15 فروردین لغایت 1 خرداد 1400
* دیرترین زمان شروع درس: 1 خرداد 1400
* تاريخ امتحان ميان ترم (در صورت نياز): پنجشنبه ۳ تيرماه ۱۴۰۰
* تاريخ امتحان پايان ترم: پنجشنبه ۱۴ مردادماه ۱۴۰۰
در پايان و در صورت دريافت حدنصاب نمره قبولي، گواهي نامه پايان درس به همراه درج نمره توسط دانشگاه صادر خواهد شد.
تالار گفتگو
Announcementsفصل اول - مقدمه 4
شرح: فصل اول به خواستگاه اصلی شبکه های عصبی اشاره می
کند. در این راستا به تعریف شبکه عصبی،
نورن با ساختار طبیعی، انواع نرون در بدن موجودات و به برخی نکات و قابلیت های یادگیری در شبکه های طبیعی می
پردازد. سپس توضیح داده می شود چطور بر اساس الهام از این شبکه ها سعی شده است
شبکه های عصبی مصنوعی توسعه یابد و به کاربردها و قابلیتهای توسعه یافته اشاره می
کند. همچنین در این فصل به برخی مفاهیم ابتدایی در مورد معماری شبکه و روش آموزش
پرداخته شده و نهایتا به معرفی اولین مدل ساده ریاضی از عملکرد نرون و برخی قابلیت
های مدلسازی آن می پردازد.
-
معرفی کوتاه از اهداف و سرفصلهای فصل اول
در این ویدئو، خوشامدگویی و معرفی کوتاه از اهداف و سرفصلهای فصل اول صورت میگیرد.
-
سیستم عصبی طبیعی و وظایف و عملکردهای مختلف آن
در این ویدئو درباره سیستم عصبی طبیعی انسان صحبت میشود. سپس با اشاره به انواع عملکردهای مختلف برای سلولهای عصبی، دسته بندی و کاربردهای شبکههای عصبی مصنوعی تعریف شده را معرفی میکنیم.
-
یادگیری در شبکههای عصبی مصنوعی چیست؟
شرحی بسیار کوتاه بر جزئیاتی مانند فعالساز خروجی در یک واحد نورون مصنوعی و دو دسته یادگیری شبکههای عصبی مصنوعی داده میشود (نظارت شده و نظارت نشده).
-
اولین الگوریتم نورون مصنوعی، Mcculloch & Pitz
در این ویدئو اولین طراحی و الگوریتم نورون مصنوعی ابتدایی با نام Mcculloch & Pitz Neuron را شرح میدهیم.
فصل دوم - شبکههای عصبی برای کاربردهای دسته بندی و خطی سازی 20
در این فصل به معرفی شبکه های عصبی به منظور کاربرد طبقه بندی و رگرسیون پرداخته شده است. برای این منظور ابتدا تعریف اولیه ای از معماری کلی شبکه عصبی برای این دو کاربرد ارایه می شود. سپس شبکه های ساده تک لایه و دولایه برای کاربرد طبقه بندی ارایه می شود. سپس سراغ شبکه های پرسپترون با تعداد لایه بیشتر و با یادگیری سیستماتیک پرداخته می شود. در این راستا شبکه های کاهش دهنده ابعاد مثل اتوانکودرها و ماشین های بولترمن محدود معرفی می گردد و بر این اساس معماری شبکه های عصبی باور عمیق توضیح داده خواهد شد. در ادامه شبکه های عصبی کانلوشنال به عنوان شبکه های قدرتمند حذف اغتشاش و اعوجاج البته با وجود لایه های متعدد کانولوشنی و ادغام و لایه های تمام متصل معرفی می گردند. در انتها برخی کابردها و توسعه های مربوط به شبکه کانلوشنال شرح داده می شود.
-
مقدمه مباحث دسته بندی و خطی سازی
در این ویدئو مفاهیم دسته بندی یا classification و خطی سازی یا regression معرفی میشود. سپس آنها با همدیگر مقایسه میشود. در انتها هم شبکه عصبی مصنوعی تک لایه و میزان قدرت جداسازی آن معرفی و توضیح داده میشود.
-
Potential of one-layer NNs in classification
در این ویدئو با شبکه شامل نورون مصنوعی پرسپترون خطی آشنا میشوید.
-
الگوریتم یادگیری برای نورون مصنوعی پرسپترون خطی
در این ویدئو با الگوریتم یادگیری برای نورون مصنوعی پرسپترون خطی و قدمهای آن آشنا میشوید.
-
ادامه پرسپترون خطی و معرفی نورون مصنوعی AdaLine
در این ویدئو ابتدا ادامه پرسپترون خطی را خواهیم داشت و سپس نورون مصنوعی AdaLine و الگوریتم یادگیری آن را توضیح میدهیم.
-
یادگیری با روش Gradient Descent
در این ویدئو قاعده یادگیری با روش Gradient Descent جهت به روز رسانی وزنهای شبکه را شرح میدهیم.
-
شبکه مصنوعی Multi AdaLine (MAdaLine)
این ویدئو را ابتدا با ادامه بحث قاعده یادگیری Gradient Descent شروع میکنیم و در ادامه Multi AdaLine (MAdaLine) را شرح میدهیم که یک الگوریتم شبکه عصبی مصنوعی دیگر است.
-
شبکه MLP با یک لایه مخفی
در این ویدئو درباره اضافه کردن یک لایه مخفی به شبکه ای با نورون Perceptron صحبت میکنیم و میخواهیم ببینم الگوریتم یادگیری آن به چه صورت است.
-
قاعده یادگیری برای شبکه MLP
در این ویدئو درباره نکات قاعده یادگیری برای شبکه MLP صحبت میکنیم.
-
مشتق زنجیره و آموزش شبکه MLP
در ویدئوی نهم درباره استفاده از مشتق زنجیره برای آموزش شبکه MLP صحبت میکنیم و نمونه ای از عملکرد این شبکه را میبینیم.
-
قاعده یادگیری برای شبکه MLP
در این ویدئو درباره نکات قاعده یادگیری برای شبکه MLP صحبت میکنیم.
-
مشتق زنجیره و آموزش شبکه MLP
در ویدئوی نهم درباره استفاده از مشتق زنجیره برای آموزش شبکه MLP صحبت میکنیم و نمونه ای از عملکرد این شبکه را میبینیم.
-
ادامه شبکه MLP و اضافه کردن دو لایه مخفی
در ویدئوی دهم ابتدای مثال بیشتری از عملکرد شبکه MLP با یک لایه مخفی میبینیم و سپس درباره این شبکه با وجود دولایه مخفی صحبت میکنیم.
-
مقدمه شبکههای عصبی مصنوعی عمیق و چندلایه
این ویدئو مقدمه ای بر شبکههای عصبی مصنوعی عمیق و چندلایه است. کمیهم درباره روش یادگیری این شبکهها تحت عنوان فاز Back Propagation صحبت میکنیم.
-
به روزرسانی وزنها و یادگیری در شبکههای عصبی مصنوعی چندلایه
در این ویدئو درباره به روزرسانی وزنها و یادگیری در شبکههای عصبی مصنوعی چندلایه صحبت میکنیم.
-
روشها و الگوریتمهای کاهش بعد دادهها
در این ویدئو درباره مفهوم کاهش بعد یا Dimensionality Reduction در کاربردهای شبکههای چندلایه خطی صحبت میکنیم.
-
ادامه بحث کاهش بعد
در ویدئوی چهاردهم توضیح مفهوم کاهش بعد دادهها در مسئله یادگیری عمیق را ادامه میدهیم و سپس دو مبحث شبکههای Auto-Encoder و Restricted Boltzmann Machine (RBM) را معرفی میکنیم.
-
ادامه بحث شبکه RBM و کاربرد کاهش بعد
در این ویدئو، به ساختار دیگری تحت عنوان Cascaded RBMs برای شبکه RBM اشاره میکنیم. در انتها هم با توجه به شبکههای کاهش بعد که تا به اینجا معرفی شده، نکاتی کلی درباره Deep Belief Network (DBN ها گفته میشود.
-
محدودیتها و توان شبکههای MLP و MADALIN
در این ویدئو درباره محدودیتها و توان شبکههای MLP و MADALIN در جداسازی دستههای مختلف موجود در دادهها صحبت میکنیم. این موارد مقدمه ای بر معرفی ساختار Convolutional Neural Networks خواهد بود.
-
مقدمه ای بر معرفی ساختار Convolutional Neural Networks
در این ویدئو به این مسئله میپردازیم که ذهن ما چطور دادههای موجود در تصاویری که از دنیای واقعی میبینیم را دسته بندی میکند و ما چطور میتوانیم شبکه ای مشابه داشته باشیم.
-
شبکههای عصبی مصنوعی پیچشی یا Convolutional Neural Networks
فصل سوم - شبکههای عصبی برای کاربردهای حافظه 17
در این فصل به معرفی شبکه های عصبی به منظور کاربرد حافظه سازی پرداخته می شود. در این راستا برخی شبکه های ساده تک لایه مبتنی بر یادگیری هب، برای بحث حافظه سازی معرفی می گردد. در این راستا معماری خود تداعی گر و دیگر تداعی گر در هر دوحالت پیش خور و بازگشتی معرفی می گردد و برخی جنبه ها مثل امکان همگرایی، ظرفیت حافظه و نحوه توسعه شبکه بحث می گردد. سپس شبکه های بازگشتی که بتوانند از دل یک سری داده متوالی در طی زمان تداعی الگو کنند معرفی می گردند. در این راستا ابتدا شبکه بازگشتی استاندارد معرفی می شود و پتانسیل آن در حافظه سازی و تداعی الگوی کوتاه مدت، بحث می شود. سپس شبکه های بازگشتی پیچیده تر که قدرت تولید حافظه و تداعی الگو با عمق ارتباطی بیشتر را دارا باشد معرفی خواهند شد.
-
7-108-111
-
7-112-117
-
7-117-122
-
7-122-135
-
2-1-13
-
2-13-23
-
2-23-36
-
2-36-55
-
3-1-6
-
3-7-14
-
3-15-19
-
3-20-26
-
3-27-34
-
3-35-41
-
3-40-47
-
3-55-73
-
3-48-55
فصل چهارم - شبکههای عصبی مبتنی بر مکانیزم 11
در این فصل شبکه های عصبی که بتوانند مسائل بدون سرپرستی را حل کنند معرفی می گردند. در ابتدا مقدمه ای راجع به اهمیت مسائل بدون سرپرستی و نحوه یادگیری آنها ارایه می شود. سپس چندین شبکه ساده تک لایه برای اینکه بتوانند بر اساس مکانیزم های ساده ای، مسائلی مثل بیشینه یابی سخت و بیشینه یابی نرم، طبقه بندی بر اساس فاصله همینگ و خوشه یابی را حل کنند معرفی می شوند. در ادامه شبکه توانمند GAN که می تواند برای حل دسته وسیعی از مسائل تولید الگو استفاده شود، معرفی می گردد. در انتها برخی توسعه های این شبکه معرفی خواهد شد.
-
4-1-5
-
4-5-7
-
4-7-11
-
4-12-16
-
4-16-20
-
4-20-30
-
4-31-36
-
4-36-41
-
4-41-52
-
4-53-63
-
4-63-79