문제 해설 - 08. LLM, VLM, 멀티모달 AI 수학
이 페이지는 08단계의 연습문제 해설을 모아 둔 페이지입니다. 정답만 확인하지 말고, 어떤 정의와 원리를 써야 했는지까지 같이 점검합니다.
37. Attention, Transformer, positional math
문제 1
- 문제: query, key, value의 역할을 각각 설명하라.
- 해설: query는 찾고 싶은 정보의 기준, key는 비교 기준, value는 실제로 가져오는 내용이다.
문제 2
- 문제: attention weight가 커진다는 말의 의미를 설명하라.
- 해설: 해당 토큰의 value가 출력에 더 크게 반영된다는 뜻이다.
문제 3
- 문제: Transformer에 residual과 norm이 함께 쓰이는 이유를 설명하라.
- 해설: 깊은 구조에서도 정보와 gradient 흐름을 안정화하기 위해서다.
문제 4
- 문제: positional encoding이 왜 필요한가?
- 해설: 토큰 내용만으로는 순서를 알 수 없어서 위치 정보를 더해야 하기 때문이다.
38. LLM pretraining, scaling laws, tokenization
문제 1
- 문제: LLM pretraining의 기본 목적을 설명하라.
- 해설: 이전 토큰들을 보고 다음 토큰 확률을 맞히도록 학습하는 것이다.
문제 2
- 문제: scaling law가 왜 중요한가?
- 해설: 모델 크기, 데이터 양, 연산량을 어떻게 배분해야 효율적으로 성능을 높일지 알려 주기 때문이다.
문제 3
- 문제: tokenization이 모델 성능에 영향을 주는 이유를 설명하라.
- 해설: 입력 단위와 시퀀스 길이가 바뀌어 모델이 학습하는 통계 구조가 달라지기 때문이다.
문제 4
- 문제: perplexity를 한 문장으로 설명하라.
- 해설: 모델이 다음 토큰을 맞힐 때 평균적으로 얼마나 많은 선택지에서 망설이는지를 나타내는 지표다.
39. Alignment SFT, RLHF, DPO
문제 1
- 문제: SFT와 RLHF의 차이를 설명하라.
- 해설: SFT는 데모 정답을 모방하고, RLHF는 선호로 만든 보상으로 정책을 조정한다.
문제 2
- 문제: reward model이 필요한 이유를 설명하라.
- 해설: 사람 선호를 수치 보상으로 바꿔 학습 신호로 쓰기 위해서다.
문제 3
- 문제: DPO가 등장한 이유를 설명하라.
- 해설: 강화학습 루프 없이도 선호 최적화를 가능하게 하기 위해서다.
문제 4
- 문제: alignment가 pretraining과 다른 목표를 가진다는 말을 설명하라.
- 해설: pretraining은 다음 토큰 확률을 맞히지만, alignment는 사람 선호에 맞추는 것이 목표다.
40. CLIP, contrastive learning, multimodal alignment
문제 1
- 문제: contrastive loss의 목표를 설명하라.
- 해설: 맞는 쌍은 가깝게, 아닌 쌍은 멀게 만들어 정렬한다.
문제 2
- 문제: 멀티모달 alignment가 필요한 이유를 설명하라.
- 해설: 이미지와 텍스트를 같은 의미 공간에서 비교하고 연결하기 위해서다.
문제 3
- 문제: CLIP이 zero-shot 분류에 도움이 되는 이유를 설명하라.
- 해설: 텍스트 설명과 이미지를 같은 공간에서 비교할 수 있기 때문이다.
문제 4
- 문제: shared embedding space를 한 문장으로 설명하라.
- 해설: 서로 다른 모달리티가 같은 좌표계에서 의미를 비교할 수 있는 공간이다.
41. VLM, multimodal generation, fusion architectures
문제 1
- 문제: VLM이란 무엇인지 설명하라.
- 해설: 이미지와 텍스트를 함께 다루는 비전-언어 모델이다.
문제 2
- 문제: fusion architecture가 필요한 이유를 설명하라.
- 해설: 서로 다른 모달리티 정보를 하나의 출력으로 연결해야 하기 때문이다.
문제 3
- 문제: cross-attention이 self-attention과 다른 점을 설명하라.
- 해설: 한 모달리티의 query가 다른 모달리티의 key/value를 참고한다.
문제 4
- 문제: grounding이 중요한 이유를 설명하라.
- 해설: 출력이 실제 입력과 연결되지 않으면 그럴듯하지만 틀린 답이 된다.
42. Frontier topics optimal transport, graphs, manifolds, mechanistic interpretability, 최신 논문 독해
문제 1
- 문제: optimal transport를 한 문장으로 설명하라.
- 해설: 한 분포의 질량을 다른 분포로 옮기는 최소 비용 문제다.
문제 2
- 문제: mechanistic interpretability가 다루는 질문을 설명하라.
- 해설: 모델 내부가 실제로 어떤 계산을 하는지 밝히는 질문이다.
문제 3
- 문제: 논문 appendix를 반드시 봐야 하는 이유를 설명하라.
- 해설: 핵심 유도와 구현 조건이 부록에 담기는 경우가 많기 때문이다.
문제 4
- 문제: 최신 논문을 읽을 때 수식 앞에서 멈추지 않기 위한 기본 습관을 제시하라.
- 해설: 변수의 역할과 분포 타입을 먼저 적고, 손실 항의 의미를 자연어로 풀어 본다.
이 해설 페이지를 읽는 법
- 37강과 38강은 식을 순서대로 읽는 연습이 중요합니다. 기호를 보기 전에 "무엇을 비교하고 무엇을 예측하는가"를 먼저 말해 보십시오.
- 39강은 pretraining과 alignment의 목표 차이를 먼저 분명히 해야 합니다.
- 40강과 41강은 "같은 공간에 맞춘다", "다른 모달을 참고한다", "입력과 출력이 연결된다"는 세 문장으로 먼저 요약한 뒤 세부 구조를 읽는 것이 좋습니다.
- 42강은 새 주제를 전부 이해하려 하기보다, 어떤 수학이 어떤 문제 때문에 등장했는지를 분류하는 식으로 읽어야 합니다.
마지막 점검
- 37강에서는 attention 식의 각 항을 말로 읽을 수 있어야 합니다.
- 38강에서는 tokenization이 왜 모델 구조와 손실 해석에 영향을 주는지 설명할 수 있어야 합니다.
- 39강에서는 SFT, RLHF, DPO의 차이를 학습 신호 관점에서 구분할 수 있어야 합니다.
- 40강에서는 multimodal alignment가 왜 필요한지, positive pair가 무엇인지 설명할 수 있어야 합니다.
- 41강에서는 fusion과 grounding을 함께 설명할 수 있어야 합니다.
- 42강에서는 새로운 논문을 읽을 때 문제 정의, 변수 역할, 손실 구조, appendix 순서로 내려갈 수 있어야 합니다.