[NLP] PEFT(Parameter Efficient Tuning) : LoRA ์ฝ๋
ยท
NLP(์์ฐ์ด์ฒ๋ฆฌ)
LoRALoRA๋ ํฐ ๋ชจ๋ธ์ ํ๋ํ๊ธฐ ์ํ PEFT ๋ฐฉ๋ฒ ์ค ๊ฐ์ฅ ๋๋ฆฌ ์ฌ์ฉ๋๋ ๋ฐฉ๋ฒ์ด๋ค. ๋ค์์ Hugging Face์ ์๋ KoGPT ๋ชจ๋ธ์ LoRA ๊ธฐ๋ฒ์ผ๋ก ๋ฏธ์ธ์กฐ์ ํ๊ธฐ ์ํด ์ค์ ๋ฐ ์ด๊ธฐํ๋ฅผ ์ํํ๋ ์ฝ๋์ด๋ค. ์ค๋์ ์ด ์ฝ๋๋ฅผ ์ดํด๋ณด๋๋ก ํ๋ค. import transformers from peft import LoraConfig, PdftModel , get_peft_model, prepare_model_for_int8_trainingtarget_modules = ["q_proj" , "k_proj" , "v_proj" , "out_proj" , "fc_in" , "fc_out" , "wte"] config = LoraConfig( r= 4 , #LoRA์ rank ์ค์ lor..