그럼에도 불구하고

  • 홈
  • 태그
  • 방명록

하이퍼파라미터 1

신경망 학습 - (2) 미니배치 학습, 기울기 그리고 신경망 학습

들어가며 지난 시간에는 신경망 학습을 위한 지표인 손실 함수에 대해서 알아보았습니다. 이번에는 신경망의 학습하는 과정에 대해서 설명하도록 하겠습니다. 확률적 경사 하강법(Stochastic gradient discent)을 이용한 신경망 학습과정을 한 문장으로 정리하면 1. 미니 배치 추출 -> 2. 기울기 계산 -> 3. 매개변수 갱신 -> 4. 1~3의 반복입니다. 이제부터 각 과정에 대해서 설명하겠습니다. 1. 미니 배치 추출 미니 배치란? 신경망 학습을 위해서 학습 데이터에서 랜덤으로 일부분만 추출한 데이터의 집합 미니 배치의 사용 학습을 시작하기 전 학습 데이터에서 일부분을 추출하는 과정입니다. 대부분 학습 데이터는 수 만에서 수 천만까지 매우 큰 용량을 가지고 있습니다. 신경망이 학습을 할 때..

Machine Learning 2020.01.19
이전
1
다음
더보기
프로필사진

그럼에도 불구하고

  • 전체보기
    • Computer Science
      • Algorithm
      • Data Structure
      • Project Management
      • Operating System
      • Network
      • Database
    • Web
      • Dive in Java
    • Android
      • Kotlin
    • Machine Learning
      • Keras
    • Docker
    • Etc
    • 교양공부
      • 주식
    • 책을 읽고

Tag

object detection, 케라스, overfiting, Kubernetes, Extension Function, aws, RMSE, Spring, Github Project, kotlin, Android, Server, 비등방성 함수, Project Management, TensorFlow, TensorFlow Lite, Docker, 확률적 경사 하강법, 쿠버네틱스, sgd,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바