Quantization & Prompt Engineering
·
NLP(자연어처리)
1. bitsandbytes https://huggingface.co/docs/transformers/ko/quantization/bitsandbytes bitsandbytesbitsandbytes는 모델을 8비트 및 4비트로 양자화하는 가장 쉬운 방법입니다. 8비트 양자화는 fp16의 이상치와 int8의 비이상치를 곱한 후, 비이상치 값을 fp16으로 다시 변환하고, 이들을 합산하여 fp16으huggingface.co bitsandbytes는 모델을 8비트 및 4비트로 양자화하는 가장 쉬운 방법이다. 4비트 양자화의 경우, QLoRA와 함께 사용하여 양자화된 대규모 언어 모델을 미세조정하는데 흔히 사용된다. config = BitsAndBytesConfig( load_in_4bit = True, ..