جستجو برای "{{term}}"
جستجو برای "{{term}}" نتیجه ای نداشت.
پیشنهاد می شود:
  • از املای صحیح کلمات مطمئن شوید.
  • از کلمات کمتری استفاده کنید.
  • فقط کلمه کلیدی عبارت مورد نظر خود را جستجو کنید.
{{count()}} نتیجه پیدا شد. برای دیدن نتایج روی دکمه های زیر کلیک کنید!
نتیجه ای یافت نشد.
سایر نتیجه ها (دپارتمان ها، اخبار، مقالات، صفحات) را بررسی کنید.

{{item.title}}

{{item.caption}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، اخبار، مقالات، صفحات) را بررسی کنید.

{{item.title}}

{{item.caption}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، دپارتمان ها، مقالات، صفحات) را بررسی کنید.

{{item.title}}

{{item.caption}}
{{item.datetime}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، دپارتمان ها، اخبار، صفحات) را بررسی کنید.

{{item.title}}

{{item.caption}}
{{item.datetime}}
نتیجه ای یافت نشد.
سایر نتیجه ها (دوره ها، دپارتمان ها، اخبار، مقالات) را بررسی کنید.

{{item.title}}

{{item.caption}}
{{item.datetime}}

سرفصل Deep Learning with Python

برنامه نویسی (Programming)

 

دوره Deep Learning with Python

 عناوین درس توضیحات درس
مروری بر یادگیری ماشین و شبکه های عصبی
  1. مروری بر انواع توابع آتش
  2. مروری بر نحوه محاسبه گرادیان و انواع توابع خطا
  3. مروری بر روال کلی backpropagation
  4. مروری بر روال های دسته بندی و رگرسیون
  5. مروری بر روال آموزش شبکه های عصبی در تنسورفلو و کراس
انواع Optimizationها در محاسبه گرادیان شبکه های عصبی
  1. آپدیت وزن شبکه از طریق Random search
  2. بررسی روش های ساده محاسبه گرادیان:
    • گرادیان چیست
    • Gradient Descent
    • Mini-batch Gradient Descent
    • Stochastic Gradient
    • Stochastic Gradient Descent
  3. بررسی مفهوم Moving Average
    • Momentum
    • Nesterov Momentum
  4. محاسبه گرادیان از طریق AdaGrad
  5. محاسبه گرادیان از طریق RMSProp
  6. محاسبه گرادیان از طریق Adam
مقدمات شبکه های عصبی عمیق
  1. Data preprocessing
    • مروری بر PCA و روش های کاهش بعد
  2. Weight Initialization
    • Random
    • Xavier
    • HE
  3. Batch Normalization
  4. Hyperparameter Optimization
    • بررسی روال تغییرات learning rate
    • Monitor and visualize the accuracy
    • Monitor and visualize the loss
  5. Regularization
    • L1 / L2 regularization
    • Dropout
  6. Data Augmentation
شبکه های عمیق پیچشی Convolutional Neural Network
  1. بیان ساختار کلی شبکه های عصبی پیچشی
  2. معرفی لایه های مختلف شبکه های CNN
    • لایه Fully connected
    • لایه Convolutional
    • لایه Polling
    • لایه Softmax
  3. آشنایی با مفاهیم dim و Stride و padding
  4. معرفی معماری های مختلف شبکه های CNN
    • Alexnet
    • VGG
    • GoogleNet
    • ResNet
  5. پیاده سازی شبکه های عصبی پیچشی با KERAS
  6. پیاده سازی شبکه های عصبی پیچشی با PyTorch
معماری یادگیری انتقالی Transfer Learning
  1. معرفی رویکرد یادگیری انتقالی و کاربرد آن در CNN
شبکه های عمیق بازگشتی Recurrent Neural Network
  1. مقدماتی بر شبکه های بازگشتی
    • بیان ساختار سلول شبکه های بازگشتی
    • معرفی انواع مختلف شبکه های بازگشتی
    • محو شدگی و انفجار گرادیان‌ها در شبکه‌های بازگشتی
  2. معرفی شبکه بازگشتی LSTM
  3. معرفی شبکه بازگشتی GRU
  4. معرفی شبکه های بازگشتی دو طرفه
معماری ترتیب به ترتیب Seq2Seq
  1. معرفی معماری ترتیب به ترتیب و کاربرد آن در RNN
تبدیل شونده ها Transformers
  1. معرفی رویکرد Transformers
  2. معرفی لایه ی Attentions
  3. معرفی مدل BERT
شبکه های عمیق Variation Autoencoders
  1. مقدماتی بر یادگیری با ناظر و بدون ناظر
  2. معرفی شبکه های Generative
  3. معرفی شبکه های Auto Encoder
  4. معرفی Variational Auto Encoder
شبکه های عمیق Generative Adversarial Networks
  1. مقدماتی بر شبکه های عصبی Gan
  2. معرفی شبکه های Deep Convolutional GAN
  3. معرفی شبکه های Semisupervised GAN
  4. معرفی شبکه های Conditional GAN
  5. معرفی شبکه های Cycle GAN