LLM을 파인튜닝하려는 시도가 많아지고 있다. 하지만 실제로 필요한 경우는 생각보다 적다. 프롬프트 엔지니어링과 RAG로 대부분의 문제를 해결할 수 있다.
파인튜닝이 필요한 경우는 분명하다. 특정 도메인의 말투나 스타일이 필요할 때. 기본 모델이 모르는 특수한 지식이 필요할 때. 응답 포맷을 정확하게 제어해야 할 때.
비용과 복잡성
파인튜닝은 비용이 든다. 학습 데이터 준비, GPU 비용, 모델 관리 비용이 있다. 수천 개의 고품질 예제가 필요하다. 데이터가 부족하면 과적합 위험이 있다.
LoRA, QLoRA 같은 기법이 비용을 줄여준다. 전체 모델이 아닌 일부 파라미터만 학습한다. 하지만 여전히 데이터 준비와 평가에 시간이 든다. 투자 대비 가치를 따져봐야 한다.
대안부터 시도하자
Few-shot 프롬프팅으로 충분한 경우가 많다. 예제를 프롬프트에 포함시키면 모델이 패턴을 따른다. 시스템 프롬프트로 행동을 제어할 수 있다. 구현이 빠르고 반복이 쉽다.
RAG(Retrieval Augmented Generation)도 좋은 대안이다. 외부 지식 베이스에서 관련 문서를 검색해서 컨텍스트로 제공한다. 파인튜닝 없이 도메인 지식을 추가할 수 있다. 지식 업데이트도 쉽다.
결론
파인튜닝은 마지막 수단이다. 프롬프트 엔지니어링과 RAG를 먼저 시도하자. 그래도 부족하다면 파인튜닝을 고려하자. 대부분의 경우 파인튜닝 없이도 원하는 결과를 얻을 수 있다.