잠 못 드는 개발자
close
프로필 배경
프로필 로고

잠 못 드는 개발자

  • 분류 전체보기 (152)
    • Front-end (45)
      • HTML (25)
      • CSS (6)
      • JavaScript (7)
      • React (7)
    • Back-end (21)
      • SQL (2)
      • JAVA (13)
      • Spring (2)
      • Flask (4)
    • AI (64)
      • Python (32)
      • 모두의 딥러닝 (24)
      • NLP (7)
    • Android (5)
    • Git & Github (7)
    • IT 지식 (3)
    • Lecture (8)
  • 홈
  • 태그
  • 방명록
  • 글쓰기
[모두의 딥러닝] 12. 기울기 소실(vanishing gradient) 문제, 활성화 함수(ReLU, softplus 등), 고급 경사 하강법(SGD, Adam 등)

[모두의 딥러닝] 12. 기울기 소실(vanishing gradient) 문제, 활성화 함수(ReLU, softplus 등), 고급 경사 하강법(SGD, Adam 등)

기울기 소실(vanishing gradient) 문제 - 문제 : 은닉층이 늘어나면서 출력층에서 시작된 가중치 업데이트가 처음 층까지 전달되지 않음 - 원인 : 활성화 함수로 사용된 시그모이드 함수 미분 값의 최대치가 0.25이므로 계속 곱하다보면 0에 가까워진다는 것 - 해결책 : 활성화 함수로 시그모이드가 아닌 다른 함수 탐색 활성화 함수 - 딥러닝에서는 activation이라는 객체에 이름을 넣어 사용 하이퍼볼릭 탄젠트(hyperbolic tangent) : 시그모이드 함수의 범위를 -1에서 1로 확장 : but, 1보다 작은 값 존재하므로 여전히 기울기 소실 문제 존재 렐루(ReLU) : x가 0보다 작을 때는 모든 값을 0으로 처리하고, 0보다 큰 값은 x를 그대로 사용 : x가 0보다 크기만 ..

  • format_list_bulleted AI/모두의 딥러닝
  • · 2023. 5. 22.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (152)
    • Front-end (45)
      • HTML (25)
      • CSS (6)
      • JavaScript (7)
      • React (7)
    • Back-end (21)
      • SQL (2)
      • JAVA (13)
      • Spring (2)
      • Flask (4)
    • AI (64)
      • Python (32)
      • 모두의 딥러닝 (24)
      • NLP (7)
    • Android (5)
    • Git & Github (7)
    • IT 지식 (3)
    • Lecture (8)
최근 글
인기 글
최근 댓글
태그
  • #두근두근파이썬
  • #PYTHON
  • #HTML
  • #문법
  • #파이썬
  • #인공지능
  • #태그
  • #딥러닝
  • #속성
  • #모두의 딥러닝
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바