LLM (10) 썸네일형 리스트형 Stanford CS224N Lec10 (Winter 2021) Lecture 9 : Prompting, Reinforcement Learning from Human Feedback강의 목차IntroZero shot and Few shot in context-learningInstruction FinetuningReinforcement Learning from Human Feedback1. Intro지금까지 수 많은 데이터를 학습하면서, 빈칸을 예측하거나 다음 단어 예측과 같은 간단한 task를 수행했다. 모델은 자연스럽게 문법 구조, 지시어 해석, 감정 등과 같은 언어적 패턴을 배울 수 있었다. 이번 강의에서는 더 나아가, 세상의 데이터 및 텍스트를 학습하면서 인간의 신념, 행동, 지식을 내재화한 'rudimentary world model' 즉, 세계를 모방하는.. Stanford CS224N Lec9 (Winter 2021) Lecture 9 : Pretraining강의 목차A brief note on Subword ModelingMotivating model pretraining from word embeddingsModel Pretraining three waysDecodersEncodersEncoder - DecodersWhat do we think pretraining is teaching? 1. A brief note on Subword Modeling이전강의들에서 알아본 word vector모델들은 (ex.word2vec) 유일한 finite한 단어 집합 vocabulary를 가정했다. 즉 데이터를 보고 어던 단어들을 사전에 넣을지 정한 뒤, 그 단어들로만 'word embedding'을 학습하였다. 하지만 여.. Stanford CS224N Lec7 (Winter 2021) Lecture 7: Translation, Seq2Seq, Attention a new task : Machine Translationnew neural architecture : sequence to sequencenew neural technique : Attention (~Lec8)1. a new task : Machine TranslationMachine Translation(MT)란?'the task of translating a sentence x from one language(the source language) to a sentence y in another language(the target language)즉, 우리가 흔히 생각하는 언어간의 번역 작업을 컴퓨터에서 하는 것을 의미한다... Stanford CS224N Lec6 (Winter 2021) Lecture 6: Simple and LSTM RNNs강의 목차RNN Language ModelOther uses of RNNsExploding and Vanishing GradientsLSTMsBidirectional and mulit-layer RNNs(~lec 7)1. RNN Language ModelRNN의 기본구조는 다음과 같다.Big corpus(거대한 말뭉치)가 있을 때, 우리는 긴 단어 sequence를 가져온다. 이를 x1,x2,...xn형태로 word embeddig을 해서 벡터화 시킨다. 그 후, 이를 RNN input으로 사용하는데, 각 단어의 hidden state 즉, 출력은 해당 위치까지의 prefix subsequence를 사용한다.(그 단어 이전까지만 사용)그다음에는 마지.. Stanford CS224N Lec5 (Winter 2021) Lecture 5: Recurrent Neural Networks강의 목차Neural Dependency ParsingA bit more about nerual networksLangauge Modeling + RNNs1. Neural Dependency Parsing저번 강의에서 설명한 'transition-based dependency parser'의 단점을 보완한 새로운 parsing 기법이다.참고로 dependency parsing 단어들간의 의존관계를 찾아내는 방법으로, 보통 dependency treebank를 만들기 위함이다. (이와 관해서는, 아래글을 확인..)2025.09.03 - [LLM] - Stanford CS224N Lec4 (Winter 2021) Stanford CS224N L.. Stanford CS224N Lec4 (Winter 2021) Lecture 4: Dependency Parsing강의 목차Syntactic Structure: Consistency and Dependency Dependency Grammar and TreebanksTransition-based dependency parsingNeural dependency parsing (~Lec5)1. Syntactic Structure: Consistency and Dependency우리가 언어로 의사소통을 할 때, 단순히 단어들을 아무렇게나 나열하는 'word salad'를 내뱉는 것은 아니다.예를 들어 “whatever, leaking, kitchen, tap(뭐, 새는, 부엌, 수도꼭지)” 같은 단어만 늘어놓고, 상대방이 알아서 의미를 조합하라고 맡기는 건 아니다. 우리.. Stanford CS224N Lec3 (Winter 2021) Lecture 3: Backprop and Neural Networks강의 목차Matrix CalculusBackpropagation1. Matrix Calculus기본적인 미분에 관한 수학내용들이다. 기초부터 다시 보자. -Single Variable (scalar to scalar)변수가 한개인 미분은 우리가 흔히 사용하는 미분이다. -Multi Varaible1) multi inputs & single output (vector to scalar)f(x)가 f(x1,x2,...xn)과 같이 n개의 변수로 이루어져 있을 때 (n inputs and 1 output)f(x)의 미분은 gradient라고 하고, partial derivatives(편미분)을 모아둔 vector이다.$ \frac{\part.. GPT From Scratch Project 앞서 공부했던, 'Attention is All You Need'와 GPT-1논문을 기반으로 한 간단한 프로젝트를 구현해보자. 2025.07.26 - [paper review] - Attention Is All You Need Review Attention Is All You Need Review"Attention Is All You Need" paper는 현대 인공지능의 패러다임 자체를 바꿔버린 역사적인 논문이다. '시대를 바꾼 논문' 이라는 표현이 과장이 아닐정도로, 이 논문 직후에 많은 곳에서 'self-attention' 방wm07070.tistory.com2025.08.04 - [paper review] - Improving Language Understanding by Generative Pr.. 이전 1 2 다음