상세정보
미리보기
딥러닝을 위한 수학 : 신경망 수학 기초부터 역전파와 경사하강법까지
- 저자
- 로널드 크노이젤 저/류광 역
- 출판사
- 제이펍
- 출판일
- 2022-09-27
- 등록일
- 2023-07-19
- 파일포맷
- PDF
- 파일크기
- 17MB
- 공급사
- YES24
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
심층학습의 역전파, 경사하강법을 제대로 익히기 위한 세심한 빌드업!이 책은 Deep Learning, 즉 심층학습의 진입장벽으로서 부담스러울 수도 있는 수학을 재미있는 예시와 최대한 쉬운 설명으로 접근한 책이다. 벡터와 행렬, 확률 분포 등의 근본적인 주제를 설명한 뒤에 행렬 미분과 같은 좀 더 심화한 개념으로 나아가며, 마지막에는 모든 논의를 통합해서 심층학습의 필수 알고리즘인 역전파와 경사하강법을 다룬다.
저자소개
2003년부터 업계에서 심층학습 개발자로 일해오면서, 2016년 콜로라도 대학교 볼더 캠퍼스에서 기계학습 전공 박사학위를 받았다. 이 책 외에 세 권의 책 『Practical Deep Learning: A Python-Based Introduction』(No Starch Press), 『Numbers and Computers』(Springer), 『Random Numbers and Computers』(Springer)를 썼다.
목차
지은이·감수자·옮긴이 소개 x옮긴이 머리말 xi베타리더 후기 xiii추천사 xv감사의 글 xviii이 책에 대하여 xixCHAPTER 1 실습 환경 설정 11.1 도구 모음 설치 21.1.1 리눅스 2 / 1.1.2 macOS 3 / 1.1.3 Windows 41.2 NumPy 51.2.1 배열 정의 6 / 1.2.2 데이터 형식 7 / 1.2.3 2차원 배열 81.2.4 0 배열과 1 배열 8 / 1.2.5 고급 색인 접근 9 / 1.2.6 디스크 읽기/쓰기 121.3 SciPy 121.4 Matplotlib 141.5 Scikit-Learn 161.6 요약 18CHAPTER 2 확률 1부 192.1 기본 개념들 202.1.1 표본 공간과 사건 20 / 2.1.2 확률 변수 21 / 2.1.3 인간은 확률에 약하다 222.2 확률의 법칙들 242.2.1 단일 사건의 확률 24 / 2.2.2 합의 법칙 27 / 2.2.3 곱의 법칙 282.2.4 합의 법칙 보충 29 / 2.2.5 생일 역설 30 / 2.2.6 조건부 확률 342.2.7 전체 확률 352.3 결합 확률과 주변 확률 362.3.1 결합 확률표 37 / 2.3.2 확률의 연쇄법칙 422.4 요약 45CHAPTER 3 확률 2부 473.1 확률 분포 473.1.1 히스토그램과 확률 48 / 3.1.2 이산 확률 분포 52 / 3.1.3 연속 확률 분포 583.1.4 중심 극한 정리 62 / 3.1.5 큰 수의 법칙 643.2 베이즈 정리 663.2.1 다시 살펴보는 암 진단 예제 67 / 3.2.2 사전 확률의 갱신 683.2.3 기계학습의 베이즈 정리 703.3 요약 73CHAPTER 4 통계 754.1 데이터의 종류 764.1.1 명목형 자료 76 / 4.1.2 순서형 자료 76 / 4.1.3 구간 자료 764.1.4 비율 자료 77 / 4.1.5 명목형 자료와 심층학습 784.2 요약 통계량 784.2.1 평균과 중앙값 79 / 4.2.2 변동의 측도 834.3 분위수와 상자 그림 874.4 결측 자료 924.5 상관관계 964.5.1 피어슨 상관계수 96 / 4.5.2 스피어먼 상관계수 1004.6 가설 검정 1034.6.1 가설 104 / 4.6.2 t-검정 105 / 4.6.3 맨-휘트니 U 검정 1114.7 요약 113CHAPTER 5 선형대수 1부 1155.1 스칼라, 벡터, 행렬, 텐서 1165.1.1 스칼라 116 / 5.1.2 벡터 116 / 5.1.3 행렬 118 / 5.1.4 텐서 1195.2 텐서 산술 연산 1225.2.1 배열 연산 122 / 5.2.2 벡터 연산 1245.2.3 행렬 곱셈 134 / 5.2.4 크로네커 곱 1405.3 요약 141CHAPTER 6 선형대수 2부 1436.1 정방행렬 1446.1.1 왜 정방행렬인가? 144 / 6.1.2 전치, 대각합, 거듭제곱 1466.1.3 특별한 정방행렬들 148 / 6.1.4 단위행렬 149 / 6.1.5 행렬식 1516.1.6 역행렬 155 / 6.1.7 대칭행렬, 직교행렬, 유니터리 행렬 1576.1.8 대칭행렬의 정부호성 1586.2 고윳값과 고유벡터 1596.2.1 고윳값과 고유벡터 구하기 1606.3 벡터 노름과 거리 함수 1646.3.1 L-노름과 거리 함수 164 / 6.3.2 공분산 행렬 1666.3.3 마할라노비스 거리 169 / 6.3.4 쿨백-라이블러 발산값 1726.4 주성분 분석 1746.5 특잇값 분해와 유사 역행렬 1786.5.1 특잇값 분해 예제 179 / 6.5.2 두 가지 용도 1816.6 요약 183CHAPTER 7 미분 1857.1 기울기(슬로프) 1867.2 도함수 1887.2.1 도함수의 공식적인 정의 188 / 7.2.2 기본 미분법 1907.2.3 삼각함수 미분법 195 / 7.2.4 지수함수와 로그함수의 미분법 1987.3 함수의 극솟값과 극댓값 2017.4 편미분 2057.4.1 혼합 편미분 207 / 7.4.2 편미분 연쇄법칙 2087.5 기울기(그래디언트) 2107.5.1 기울기 계산 210 / 7.5.2 기울기의 시각화 2137.6 요약 216CHAPTER 8 행렬 미분 2178.1 공식들 2188.1.1 스칼라 인수 벡터 함수 219 / 8.1.2 벡터 인수 스칼라 함수 2218.1.3 벡터 인수 벡터 함수 221 / 8.1.4 스칼라 인수 행렬 함수 2228.1.5 행렬 인수 스칼라 함수 2238.2 항등식 2248.2.1 벡터 인수 스칼라 함수 관련 항등식 2248.2.2 스칼라 인수 벡터 함수 관련 항등식 2268.2.3 벡터 인수 벡터 함수 관련 항등식 2278.2.4 행렬 인수 스칼라 함수 관련 항등식 2288.3 야코비 행렬과 헤세 행렬 2308.3.1 야코비 행렬 231 / 8.3.2 헤세 행렬 2388.4 행렬 미분 예제 몇 가지 2458.4.1 성분별 연산의 도함수 245 / 8.4.2 활성화 함수의 도함수 2468.5 요약 248CHAPTER 9 신경망의 데이터 흐름 2499.1 데이터 표현 2509.1.1 전통적인 신경망 250 / 9.1.2 심층 합성곱 신경망 2519.2 전통적인 신경망의 데이터 흐름 2549.3 합성곱 신경망의 데이터 흐름 2599.3.1 합성곱 259 / 9.3.2 합성곱 층 265 / 9.3.3 풀링 층 2689.3.4 완전 연결층 269 / 9.3.5 합성곱 신경망의 데이터 흐름 2699.4 요약 272CHAPTER 10 역전파 27510.1 역전파란 무엇인가? 27610.2 직접 계산해 보는 역전파 27710.2.1 편미분 유도 279 / 10.2.2 파이썬 구현 28110.2.3 신경망 모형의 훈련과 시험 28610.3 완전 연결 신경망의 역전파 28810.3.1 오차의 역전파 288 / 10.3.2 가중치와 치우침 값의 편미분 계산 29210.3.3 파이썬 구현 294 / 10.3.4 구현 적용 29910.4 계산 그래프 30210.5 요약 305CHAPTER 11 경사하강법 30711.1 기본 개념 30811.1.1 1차원 경사하강법 308 / 11.1.2 2차원 경사하강법 31211.2 확률적 경사하강법 31811.3 운동량 32111.3.1 운동량이란? 321 / 11.3.2 운동량을 도입한 1차원 경사하강법 32311.3.3 운동량을 도입한 2차원 경사하강법 32511.3.4 운동량을 이용한 신경망 학습 326 / 11.3.5 네스테로프 운동량 33311.4 적응적 경사하강법 33611.4.1 RMSprop 336 / 11.4.2 AdaGrad와 ADADELTA 33711.4.3 Adam 338 / 11.4.4 최적화 기법에 관한 몇 가지 생각 34011.5 요약 34111.6 맺음말 342부록: 더 나아가기 343확률과 통계 343선형대수 344미적분 345심층학습 345찾아보기 348