1. Generative AI - Document Retrieval and Question Answering with LLMs
- Fine-tuning vs Indexing
- New Documents
- Fine-tuning은 몇 시간이 걸리는 반면, Indexing은 실시간으로 이용할 수 있다.
- Context Size Limiation
- 대부분의 LLM은 4K 토큰만을 허용하므로 많은 양의 데이터를 제공할 수 없음.
- Indexing 접근 방식을 사용하면 관련 문서와 유사한 문서를 검색. LLM은 무제한 데이터에 의존할 수 있음
- Restricted Documents
- Fine-tuning은 문서에 대한 접근 제한을 할 수 없으나, Indexing은 런타임에서 필터링이 가능함
- Cheaper
- Fine-tuning을 하지 않으므로 더 쌈
- Halluciation
- prompt engineering과 결합하면 환각을 피할 수 있음
- New Documents
2. Generative AI - Mastering the Language Model Parameters for Better Outputs
- Temperature: 모델 응답의 무작위성에 영향을 줌
- temperature = 1.0: 더 다양하고 창의적인 응답을 생성하지만 예측하기 여려움
- temperature = 0.0: 더 결정적이고 신뢰할 수 있지만 창의성이 떨어짐
'Daily-Trend-Review' 카테고리의 다른 글
2023/07/06: Vector DB, Transformer, Context Window, vLLM 등 (0) | 2023.07.06 |
---|---|
2023/07/01: Emerging Architectures for LLM Applications (0) | 2023.07.01 |
2023/05/29: State of GPT, Voyager, LLaMA-Adapter 등 (0) | 2023.05.29 |
2023/05/25: 학습 flops 평가, 무한 외부 메모리를 가진 ChatGPT 등 (0) | 2023.05.25 |
2023/05/23: LIMA, transformer 구현 (0) | 2023.05.23 |