<Retrieval, Knowledge Injection> Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs (2023.12)


<Retrieval, Knowledge Injection> Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs (2023.12)

관심있는 NLP 논문을 읽어보고 간단히 정리했습니다. 혹시 부족하거나 잘못된 내용이 있다면 댓글 부탁드립니다 ️ usechatgpt init success [Microsoft, Israel] - LLM이 사전학습 동안 보지 못했던 정보를 추가 습득하도록 하는 방식 중 fine-tuning과 retrieval-augmented generation (RAG)를 비교 - 두 방식 중에서 RAG가 훨씬 성능이 좋은 것으로 확인됨. 심지어 base with RAG > fine-tuned with RAG 1. Introduction LLM은 다양한 도메인의 지식을 보유하고 있음이 잘 알려져 있으나 여전히 명확한 한계가 존재함 static하다, 즉 새로운 정보가 업데이트 되지 않는다 특수한 도메인의 전문 지식은..


원문링크 : <Retrieval, Knowledge Injection> Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs (2023.12)