본문 바로가기
Science

대규모 언어 모델: 사전 학습의 강점

by 애일리언 2023. 5. 24.
반응형

사전 학습의 힘

대규모 언어 모델은 자연어 처리 분야에 혁명을 일으켜 기계가 사람과 같은 텍스트를 생성하고 다양한 프롬프트에 대한 통찰력 있는 응답을 제공할 수 있게 해줍니다. 이러한 모델은 비지도 사전 학습과 이후 인스트럭션 튜닝강화 학습을 통한 미세 조정이 포함된 2단계 학습 프로세스를 거칩니다. 이러한 단계의 중요성에 대해 자세히 알아보고 65B 파라미터의 LLaMa 언어 모델인 LIMA의 인상적인 기능에 대해 살펴봅니다.

1단계: 범용 표현 학습을 위한 비지도 사전 훈련:

학습의 첫 번째 단계는 언어 모델이 방대한 양의 원시 텍스트 데이터로부터 학습하는 비지도 사전 학습을 포함합니다. 이 과정에서 모델은 언어 패턴, 문법, 의미론, 심지어 일부 세계 지식까지 깊이 있게 이해하게 됩니다. 문장의 다음 단어를 예측하거나 마스킹된 단어를 재구성함으로써 모델은 언어의 복잡성을 파악하고 범용적인 표현을 습득합니다.

2단계: 인스트럭션 튜닝 및 강화 학습:

사전 학습을 마친 언어 모델은 특정 작업에 대해 학습하고 사용자 선호도에 맞게 조정하는 미세 조정 단계로 진행됩니다. 이 과정에는 모델의 성능을 최적화하기 위한 대규모 인스트럭션 튜닝강화 학습이 포함됩니다. 그러나 최근 연구에 따르면 사전 학습이 모델의 전반적인 지식과 역량에 어느 정도 기여하는지에 대한 흥미로운 사실이 밝혀졌습니다.

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

LIMA: 제한된 명령어 튜닝 데이터로부터 학습:

사전 학습과 미세 조정의 중요성을 평가하기 위해 연구원들은 65B 매개변수 LLaMa 언어 모델인 LIMA를 도입했습니다. LIMA는 강화 학습이나 인간 선호도 모델링 없이 신중하게 선별된 1,000개의 프롬프트와 응답만을 사용하여 미세 조정되었습니다. 이 실험은 특정 응답 형식을 따르고 보이지 않는 작업에 일반화할 수 있는 모델의 능력을 테스트하기 위한 것이었습니다.

놀라운 성능과 일반화 능력:

놀랍게도 LIMA는 훈련 데이터의 몇 가지 예시를 통해 학습할 수 있는 능력을 보여주며 놀라운 성능을 보여주었습니다. 이 모델은 여행 일정 계획부터 대체 역사에 대한 추측에 이르기까지 복잡한 쿼리를 처리할 수 있었습니다. 또한, LIMA는 학습 데이터에 존재하지 않는 보이지 않는 작업에도 잘 적응하는 강력한 일반화 능력을 보여주었습니다. 이러한 결과는 언어 모델 지식의 대부분이 사전 학습 단계에서 습득된다는 것을 의미합니다.

비교 분석: LIMA와 GPT-4, Bard, DaVinci003 비교:

LIMA의 출력 품질을 더 평가하기 위해 통제된 인간 연구를 수행했습니다. 이 연구에서는 다양한 수준의 인간 피드백으로 훈련된 LIMA의 반응과 GPT-4, Bard, DaVinci003의 반응을 비교했습니다. 연구 결과, 43%의 사례에서 LIMA의 반응이 GPT-4와 동등하거나 더 선호되는 것으로 나타났습니다. Bard와 비교했을 때 LIMA에 대한 선호도는 58%로 증가했으며, 사람의 피드백으로 훈련된 DaVinci003과 비교했을 때는 65%로 더욱 높아졌습니다.

결론:

이 연구 결과는 대규모 언어 모델의 지식과 역량이 주로 사전 훈련 단계에서 학습된다는 것을 강력하게 시사합니다. 인스트럭션 튜닝과 강화 학습은 특정 작업과 사용자 선호도에 맞게 모델을 조정하는 데 중요한 역할을 하지만, 제한된 미세 튜닝 데이터로도 LIMA의 뛰어난 성능은 사전 학습의 힘을 강조합니다. 이러한 결과는 초기 비지도 학습 단계의 중요성을 강조하기 때문에 향후 언어 모델 개발 및 최적화에 중요한 의미를 갖습니다. 언어 모델 학습이 지속적으로 발전함에 따라 향후에는 더 큰 기능과 더욱 정교한 결과물을 기대할 수 있습니다.

반응형