1. LIMA: Less Is More for Alignment
source: https://arxiv.org/pdf/2305.11206.pdf
2. Putting it all together: the implemented transformer
'Daily-Trend-Review' 카테고리의 다른 글
2023/05/29: State of GPT, Voyager, LLaMA-Adapter 등 (0) | 2023.05.29 |
---|---|
2023/05/25: 학습 flops 평가, 무한 외부 메모리를 가진 ChatGPT 등 (0) | 2023.05.25 |
2023/05/19: GPT-3 모델 파라미터 계산하기 (0) | 2023.05.19 |
2023/05/17: Dr.LLaMA, 100k Context Windows, PaLM2 MEGABYTE (0) | 2023.05.17 |
2023/05/10: LLM Tech Stack, Open LLMs, 8bit MM 등 (0) | 2023.05.10 |