콘텐츠로 이동

이 단계는 고전적인 머신러닝 모델이 어떤 가정 위에 서 있고, 왜 그 가정이 현대 AI에서도 여전히 중요한지 배우는 단계입니다. 딥러닝으로 바로 넘어가기 전에, 예측, 분류, 차원축소, 잠재변수라는 핵심 생각을 먼저 다집니다.

이 단계에서 배우는 것

  • 선형회귀와 로지스틱 회귀는 수치 예측과 분류의 가장 기본적인 출발점입니다.
  • PCA와 커널방법은 데이터를 다른 공간에서 다시 보는 관점을 제공합니다.
  • 잠재변수 모델은 보이지 않는 구조를 상정하며 데이터를 설명하는 방법을 보여 줍니다.

먼저 알고 갈 말

  • 모델: 입력을 받아 출력을 만드는 수학적 규칙입니다.
  • 가정: 모델이 세상을 어떤 구조로 본다고 미리 두는 약속입니다.
  • 특징: 입력을 설명하는 숫자 정보입니다.
  • 잠재변수: 직접 보이지 않지만 데이터를 설명하기 위해 도입하는 숨은 변수입니다.

이 단계를 읽는 순서

  1. 먼저 가장 단순한 예측 모델인 선형회귀를 봅니다.
  2. 그다음 분류를 위한 로지스틱 회귀로 넘어갑니다.
  3. 이어서 데이터를 더 적은 축으로 요약하는 PCA를 배웁니다.
  4. 그다음 선형 모델의 한계를 넓히는 커널방법을 이해합니다.
  5. 마지막으로 보이지 않는 원인을 추정하는 잠재변수와 EM을 봅니다.

각 강의가 맡는 역할

  • 27. 선형회귀와 최소제곱: 수치 예측 문제를 가장 단순한 식으로 표현합니다.
  • 28. 로지스틱 회귀와 지수족: 확률을 이용해 분류 문제를 다루는 방법을 배웁니다.
  • 29. PCA와 잠재공간: 많은 차원을 적은 차원으로 요약하는 생각을 익힙니다.
  • 30. 커널방법과 RKHS 직관: 선형 모델을 더 풍부한 특징공간으로 확장합니다.
  • 31. 그래픽모델, EM, 잠재변수: 보이지 않는 구조를 모델링하는 관점을 배웁니다.

이 단계를 마치면 할 수 있는 것

  • 회귀, 분류, 차원축소의 차이를 설명할 수 있습니다.
  • 단순한 선형 모델과 더 유연한 모델의 차이를 말할 수 있습니다.
  • 잠재공간과 잠재변수라는 생각이 왜 현대 AI와 이어지는지 이해할 수 있습니다.

문제 해설과 강의 목록

  • 이 단계의 연습문제 해설은 아래 페이지에 모아 두었습니다.

27. 선형회귀와 최소제곱 28. 로지스틱 회귀와 지수족 29. PCA와 잠재공간 30. 커널방법과 RKHS 직관 31. 그래픽모델, EM, 잠재변수 문제 해설 - 06. 머신러닝 이론