이 단계에서 배우는 것
이 단계에서는 모델이 어떻게 스스로 맞춰 가는지와 새로운 데이터를 어떻게 만들어 내는지를 한 흐름으로 읽습니다. 앞에서 배운 기본 도구들이 실제 과정에서 어떻게 맞물리는지 차례대로 확인합니다.
먼저 알고 갈 말
- 학습: 예측을 조금씩 고쳐 가며 더 좋은 답을 찾는 과정
- 손실: 지금의 예측이 얼마나 틀렸는지 나타내는 수
- 기울기: 손실을 줄이기 위해 무엇을 얼마나 바꿔야 하는지를 알려 주는 값
- 초기화: 학습을 시작하기 전에 가중치의 첫 값을 정하는 일
- 정규화: 중간값의 크기와 분포를 일정하게 맞춰 흔들림을 줄이는 일
- residual 연결: 원래 정보를 지름길로 보내는 연결
- 표현학습: 데이터의 의미를 잘 담는 표현을 배우는 일
- 잠재변수: 관측되지 않지만 데이터를 만든다고 가정하는 숨은 요인
- 확률과정: 시간이 지나며 상태가 확률적으로 변하는 과정
- diffusion: 노이즈를 넣고 다시 제거하는 생성 방식
이 단계를 읽는 순서
- 32강에서 학습의 기본 구조(계산그래프와 역전파)를 잡습니다.
- 33강에서 학습이 흔들리는 이유와 안정화 장치를 봅니다.
- 34강에서 정답표 없이도 표현을 배우는 방법을 이해합니다.
- 35강에서 잠재변수 생성모델과 변분추론을 배웁니다.
- 36강에서 노이즈 과정 기반 생성모델을 정리합니다.
각 강의가 맡는 역할
-
- 신경망, 계산그래프, backprop: 학습이 어떻게 진행되는지 큰 구조를 만든다.
-
- 초기화, 정규화, residual, optimization tricks: 학습이 실제로 되게 만드는 안정화 장치를 정리한다.
-
- self-supervised learning과 표현학습: 라벨 없이 표현을 만드는 핵심 원리를 다룬다.
-
- variational inference, ELBO, VAE: 숨은 변수를 가진 생성모델의 학습 논리를 설명한다.
-
- 확률과정, score matching, diffusion: 노이즈를 활용한 생성의 큰 흐름을 연결한다.
이 단계를 마치면 할 수 있는 것
- 학습이 왜 기울기 계산으로 돌아가는지 설명할 수 있습니다.
- 깊은 모델이 잘 배우기 위한 조건을 말할 수 있습니다.
- self-supervised, 잠재변수 모델, diffusion이 하나의 흐름으로 연결됨을 이해합니다.
아래 순서대로 읽습니다. 32. 신경망, 계산그래프, backprop 33. 초기화, 정규화, residual, optimization tricks 34. self-supervised learning과 표현학습 35. variational inference, ELBO, VAE 36. 확률과정, score matching, diffusion 문제 해설 - 07. 딥러닝과 생성모델