그럼에도 불구하고

  • 홈
  • 태그
  • 방명록

AdaGrad 1

신경망 학습 - (4 - 3) AdaGrad(Adaptive Gradient)

지난 글 Momentum에 이어서 이번에는 AdaGrad라는 매개변수의 Optimizer에 대해서 알아보도록 하겠습니다. AdaGrad란? Adaptive Gradient의 줄임말로서 지금까지 많이 변화한 매개변수는 적게 변화하도록, 반대로 적게 변화한 매개변수는 많이 변화하도록 learning late의 값을 조절하는 개념을 기존의 SGD에 적용한 것입니다. AdaGrad의 장점 SGD에서 비등방성 함수의 경우 비효율적이라고 얘기하면서 예시를 보여드렸습니다. 지그재그로 계속 이동하게되어 실제 손실함수의 최솟값으로 이동하는데 비효율적인데 만약 학습률(learning late)을 낮춘다면 어떻게 될까요? SGD에서 손실함수의 기울기(gradient)는 벡터의 방향성을, 학습률은 벡터의 크기를 의미하는 바가..

Machine Learning 2020.01.28
이전
1
다음
더보기
프로필사진

그럼에도 불구하고

  • 전체보기
    • Computer Science
      • Algorithm
      • Data Structure
      • Project Management
      • Operating System
      • Network
      • Database
    • Web
      • Dive in Java
    • Android
      • Kotlin
    • Machine Learning
      • Keras
    • Docker
    • Etc
    • 교양공부
      • 주식
    • 책을 읽고

Tag

Server, 케라스, TensorFlow, Spring, TensorFlow Lite, object detection, Android, Docker, Project Management, aws, Kubernetes, 확률적 경사 하강법, RMSE, kotlin, 쿠버네틱스, sgd, Github Project, Extension Function, 비등방성 함수, overfiting,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바