그럼에도 불구하고

  • 홈
  • 태그
  • 방명록

릿지 회귀 1

머신러닝 모델 - 3.정규화(regularization, 과대적합 완화 )

들어가며 지난글에서는 학습곡선을 통해서 모델 학습이 과대적합인지 과소적합인지 파악하여 모델을 결정하는방법에 대해서 알아보았습니다. 과소적합인 경우에는 더 좋은 모델과 하이퍼파라미터를 선택하면되지만 과대적합인 경우에는 어떻게 해결해야할까요? 이번 글에서는 비용함수에 변수를 추가하여 모델을 규제하여 과대적합을 방지하는 방법에 대해서 알아보겠습니다. 목차 1. 과대적합 발생이유 2. 과대적합 해소방법 1.릿지 회귀(티호노프 규제) 2.라쏘 회귀(Lasso Regression) 3.엘라스틱넷 4.조기종료 3.1 과대적합 발생이유 과대적합이 발생하는 이유는 각 파라미터 변수들의 절댓값이 크게 설정되기 때문입니다. 아래 그림은 이후에 설명할 규제의 정도에 따른 학습결과인데 미리 이를 예로 설명하겠습니다. 오른쪽 그..

Machine Learning 2020.04.17
이전
1
다음
더보기
프로필사진

그럼에도 불구하고

  • 전체보기
    • Computer Science
      • Algorithm
      • Data Structure
      • Project Management
      • Operating System
      • Network
      • Database
    • Web
      • Dive in Java
    • Android
      • Kotlin
    • Machine Learning
      • Keras
    • Docker
    • Etc
    • 교양공부
      • 주식
    • 책을 읽고

Tag

Github Project, Kubernetes, 비등방성 함수, TensorFlow, 쿠버네틱스, object detection, TensorFlow Lite, Project Management, Android, Server, overfiting, Extension Function, 케라스, 확률적 경사 하강법, sgd, Docker, kotlin, RMSE, Spring, aws,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바