Korea Vision & Robotics

  • 홈
  • 태그
  • 방명록

CS231n 2

[CS231n] Lecture 7. Training Neural Networks II

목차 1. Stochastic Gradient Descent 1.1 SGD의 문제점 2. SGD + Momentum 3. Nesterov Momentum 4. AdaGrad 5. RMSProp 6. Adam 7. Learning rate 8. Second-order Optimization 9. Regularization 9.1 Model Ensembles 9.2 Dropout 9.3 Data Augmentation 9.4 Others 10. Tranfer Learning 1. Stochastic Gradient Descent SGD는 데이터를 미니 배치로 나눈 후, 데이터 전체를 한꺼번에 사용하여 모델의 가중치를 업데이트 하는것이 아닌 미니 배치마다 가중치를 업데이트하여 속도면에서 개선시킨 최적화(Opt..

CS231n 2023.03.04

[CS231n] Lecture 3. Loss Functions and Optimization

목차 1. Loss Function 1.1 Multiclass SVM loss 1.2 Hinge loss 2. Regularization 2.1 L2 Regularization 2.2 L1 Regularization 3. Softmax Classifier (Multinomial Logistic Regression) 4. Softmax VS. SVM 5. Optimization 6. Gradient Descent 6.1 Stochastic Gradient Descent 7. Image Feature 7.1 Color Histogram 7.2 Histogram of Oriented Gradients 7.3 Bag of Words 1. Loss Function Linear Classifier에서 이미지를 입력..

CS231n 2023.02.04
이전
1
다음
프로필사진

  • 분류 전체보기 (14)
    • Hands-On Machine Learning (7)
    • CS231n (7)

Tag

Optimization, transfer learning, kovi, 핸즈온머신러닝, 선형회귀, 분류, FeatureExtraction, 로지스틱회귀, 차원축소, 차원의저주, loss function, featureselection, 스터디, SSDC, CS231n, korea vision & robotics, 서포트 벡터 머신, 결정트리, 경사하강법, training model,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

Calendar

  2025. 07  
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.