🔗 https://arxiv.org/pdf/2504.18415.pdf초저용량 LLM의 진화: BitNet v2 파헤치기 (1비트 LLM을 위한 4비트 활성화)안녕하세요! 인공지능 분야는 점점 더 크고 똑똑한 모델을 만들면서도, 동시에 이 모델들을 더 효율적으로 만드는 데 집중하고 있어요. 특히 스마트폰이나 작은 기기에서도 LLM(거대 언어 모델)을 돌릴 수 있도록 모델 크기를 줄이는 연구가 활발합니다.(이 논문이 왜 중요한지)거대 언어 모델(LLM)은 똑똑하지만 크기가 너무 커서 실행하기 어려워요.그래서 모델을 압축하는 '양자화(Quantization)' 연구가 중요한데, 특히 모델의 '가중치(Weights)'를 획기적으로 줄이는 연구(BitNet b1.58 등)가 큰 성과를 냈습니다. (1.58비트!..