Easy! 딥러닝
도서명:Easy! 딥러닝
저자/출판사:혁펜하임/북엔드
쪽수:352쪽
출판일:2024-11-26
ISBN:9791197601347
목차
지은이의 말
이 책을 보는 방법
Chapter 1 - 왜 현재 AI가 가장 핫할까?
- 1.1 AI(Artificial Intelligence) vs ML(Machine Learning) vs DL(Deep Learning)
- 1.2 규칙 기반(Rule-Based) vs 데이터 기반(Data-Based)
- 1.3 AI는 어떻게 이미지를 분류할까?
- 1.4 AI는 어떻게 번역을 할까?
- 1.5 지도 학습(Supervised Learning)
- 1.6 자기 지도 학습(Self-Supervised Learning)
- 1.7 비지도 학습(Unsupervised Learning)
- 1.8 강화 학습(Reinforcement Learning)
Chapter 2 - 인공 신경망과 선형 회귀, 그리고 최적화 기법들
- 2.1 인공 신경: Weight와 Bias의 직관적 이해
- 2.2 인공 신경망과 MLP(Multi-Layer Perceptron)
- 2.3 인공 신경망은 함수다!
- 2.4 선형 회귀, 개념부터 알고리즘까지 step by step
- 2.5 경사 하강법(Gradient Descent)
- 2.5.1 경사 하강법의 두 가지 문제
- 2.6 웨이트 초기화(Weight Initialization)
- 2.7 확률적 경사 하강법(Stochastic Gradient Descent)
- 2.8 Mini-Batch Gradient Descent
- 2.8.1 Batch Size와 Learning Rate의 조절
- 2.9 Momentum
- 2.10 RMSProp(Root Mean Squared Propagation)
- 2.11 Adam(Adaptive Moment Estimation)
- 2.12 검증 데이터(Validation Data)
- 2.12.1 K-fold 교차 검증(K-fold Cross Validation)
Chapter 3 - 딥러닝, 그것이 알고 싶다.
- 3.1 MLP, 행렬과 벡터로 표현하기
- 3.2 비선형(Non-Linear) 액티베이션의 중요성
- 3.3 역전파(Backpropagation)
- 3.3.1 학습 과정에서 Forward Propagation이 필요한 이유
Chapter 4 - 이진 분류와 다중 분류
- 4.1 Unit Step Function을 이용한 이진 분류
- 4.1.1 Unit Step Function의 두 가지 문제와 Sigmoid
- 4.2 Sigmoid를 이용한 이진 분류
- 4.2.1 BCE(Binary Cross-Entropy) Loss
- 4.2.2 로지스틱 회귀(Logistic Regression)
- 4.3 MSE Loss vs BCE Loss
- 4.4 딥러닝과 MLE(Maximum Likelihood Estimation)
- 4.4.1 Loss 함수와 NLL(Negative Log-Likelihood)
- 4.5 다중 분류
- 4.5.1 Softmax
- 4.5.2 Cross-Entropy Loss
- 4.5.3 Softmax 회귀(Softmax Regression)
Chapter 5 - 인공 신경망, 그 한계는 어디까지인가?
- 5.1 Universal Approximation Theorem
- 5.2 Universal Approximation Theorem 증명
- 5.3 Universal Approximation Theorem 오해와 진실
Chapter 6 - 깊은 인공 신경망의 고질적 문제와 해결 방안
- 6.1 기울기 소실(Vanishing Gradient)과 과소적합(Underfitting)
- 6.1.1 ReLU(Rectified Linear Unit)
- 6.1.2 Sigmoid vs ReLU 실험 결과 분석
- 6.1.3 ReLU 그 후..
- 6.1.4 배치 정규화(Batch Normalization)
- 6.1.5 배치 정규화(Batch Normalization) 실험 결과 분석
- 6.1.6 레이어 정규화(Layer Normalization)
- 6.2 Loss landscape 문제와 ResNet의 Skip-Connection
- 6.3 과적합(Overfitting)
- 6.3.1 데이터 증강(Data Augmentation)
- 6.3.2 Dropout
- 6.3.3 오토인코더(Autoencoder)에 Dropout 적용, 실험 결과 분석
- 6.3.4 Regularization
- 6.3.5 Regularization과 MAP(Maximum A Posteriori)
- 6.3.6 L2-Regularization vs L1-Regularization 실험 결과 분석
Chapter 7 - 왜 CNN이 이미지 데이터에 많이 쓰일까?
- 7.1 CNN은 어떻게 인간의 사고방식을 흉내 냈을까?
- 7.2 이미지 인식에서 FC 레이어가 가지는 문제
- 7.3 컨볼루션(Convolution)의 동작 방식
- 7.3.1 컨볼루션은 어떻게 위치별 특징을 추출할까?
- 7.3.2 특징 맵(Feature Map)
- 7.3.3 어떤 특징을 추출할지 AI가 알아낸다!
- 7.4 다채널 입력에 대한 컨볼루션
- 7.5 1x1 컨볼루션의 의미
- 7.6 Padding & Stride
- 7.7 Pooling 레이어
- 7.8 CNN의 전체 구조: 특징 추출부터 분류까지
- 7.9 CNN의 특징 맵 실험 결과 분석
- 7.10 VGGNet 완벽 해부
- 7.10.1 Receptive Field 개념과 여러 번 컨볼루션 레이어를 통과하는 이유
- 7.11 CNN에 대한 추가적인 고찰
Chapter 8 - 왜 RNN보다 트랜스포머가 더 좋다는 걸까?
- 8.1 연속적인 데이터와 토크나이징(Tokenizing)
- 8.2 RNN의 동작 방식
- 8.3 다음 토큰 예측(Next Token Prediction)
- 8.4 RNN의 구조적 한계
- 8.5 RNN의 여러 가지 유형
- 8.6 Seq2seq 개념 및 문제점
- 8.7 Attention: 시점마다 다른 Context Vector의 사용
- 8.7.1 Attention: Context Vector 만들기
- 8.7.2 Attention의 학습 원리와 해석
- 8.7.3 RNN+Attention의 두 가지 문제점
- 8.8 트랜스포머의 Self-Attention
- 8.9 맺으며..
부록: 딥러닝을 위한 필수 기초 수학
- 1-1강. 함수
- 1-2강. 로그함수
- 2-1강. 벡터와 행렬
- 2-2강. 전치와 내적
- 3-1강. 극한과 입실론-델타 논법
- 3-2강. 미분과 도함수
- 3-3강. 연쇄 법칙
- 3-4강. 편미분과 그래디언트
- 4-1강. 랜덤 변수와 확률 분포
- 4-2강. 평균과 분산
- 4-3강. 균등 분포와 정규 분포
- 5-1강. MLE(Maximum Likelihood Estimation)
- 5-2강. MAP(Maximum A Posteriori)
- 6강. 정보 이론 기초