[딥러닝 입문] 손실 함수와 경사 하강법, 선형 회귀 뉴런 구현
본 내용은 Do it! 정직하게 코딩하며 배우는 딥러닝 입문(이지스퍼블리싱) - 박해선 저자님의 책을 읽고 공부를 목적으로 작성한 글입니다. 코드는 https://github.com/on1ystar/Do-it-DL 에 Google Colab 파일(jupyter notebook)로 업데이트 될 예정입니다. 03-3 손실 함수와 경사 하강법 손실 함수 예상한 값과 실제 타깃값의 차이를 함수로 정의한 것으로 보통 '제곱 오차 ' 를 손실 함수로 사용한다. 제곱 오차(squared error)는 다음과 같다. 경사 하강법은 이런 식으로 정의된 손실 함수의 최소가 되는 지점을 찾아가는 방법이다. 위 식을 전개해 보면 가중치 w와 절편 b에 대한 2차식으로 각각 나타낼 수 있다. 식을 보면 w^2의 계수와 b^2의..
머신러닝&딥러닝 공부
2020. 1. 6. 23:16
반응형
250x250
공지사항
링크
최근에 올라온 글
TAG
- 리버싱
- Gradle
- shell code
- Spring Boot
- spring mvc
- 파이썬 for Beginner 솔루션
- Thymeleaf
- JPA
- 운영체제 반효경
- BOF
- 지옥에서 온 git
- 쉽게 배우는 운영체제
- 김영환
- 파이썬 for Beginner 연습문제
- 버퍼오버플로우
- 선형 회귀
- JUnit
- Spring Data JPA
- jsp
- 패킷 스위칭
- 쉘 코드
- 스프링 테스트
- 방명록 프로젝트
- Spring
- Do it! 정직하게 코딩하며 배우는 딥러닝 입문
- Python Cookbook
- 프로그래머스
- Computer_Networking_A_Top-Down_Approach
- 스프링
- 생활코딩 javascript
최근에 달린 댓글
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Total
- Today
- Yesterday