Korea Vision & Robotics

  • 홈
  • 태그
  • 방명록

Optimization 2

[CS231n] Lecture 7. Training Neural Networks II

목차 1. Stochastic Gradient Descent 1.1 SGD의 문제점 2. SGD + Momentum 3. Nesterov Momentum 4. AdaGrad 5. RMSProp 6. Adam 7. Learning rate 8. Second-order Optimization 9. Regularization 9.1 Model Ensembles 9.2 Dropout 9.3 Data Augmentation 9.4 Others 10. Tranfer Learning 1. Stochastic Gradient Descent SGD는 데이터를 미니 배치로 나눈 후, 데이터 전체를 한꺼번에 사용하여 모델의 가중치를 업데이트 하는것이 아닌 미니 배치마다 가중치를 업데이트하여 속도면에서 개선시킨 최적화(Opt..

CS231n 2023.03.04

[CS231n] Lecture 3. Loss Functions and Optimization

목차 1. Loss Function 1.1 Multiclass SVM loss 1.2 Hinge loss 2. Regularization 2.1 L2 Regularization 2.2 L1 Regularization 3. Softmax Classifier (Multinomial Logistic Regression) 4. Softmax VS. SVM 5. Optimization 6. Gradient Descent 6.1 Stochastic Gradient Descent 7. Image Feature 7.1 Color Histogram 7.2 Histogram of Oriented Gradients 7.3 Bag of Words 1. Loss Function Linear Classifier에서 이미지를 입력..

CS231n 2023.02.04
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (14)
    • Hands-On Machine Learning (7)
    • CS231n (7)

Tag

loss function, 차원의저주, 핸즈온머신러닝, CS231n, Optimization, transfer learning, training model, korea vision & robotics, 결정트리, 차원축소, 스터디, 분류, featureselection, 서포트 벡터 머신, 선형회귀, 경사하강법, SSDC, kovi, FeatureExtraction, 로지스틱회귀,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바