GPT 3

2023/03/07: Specialized LLMs, Prompt Engineering 등

1. Specialized LLMs: ChatGPT, LaMDA, Galactica, Codex, Sparrow, and More source: https://medium.com/towards-data-science/specialized-llms-chatgpt-lamda-galactica-codex-sparrow-and-more-ccccdd9f666f LLM 동작 개선 Generic LM이 부족한 점 Alignment Domain Specialization LaMDA 모델을 확장하면 대화 품질이 어느 정도 향상되지만 근거나 안전성과 같은 지표는 개선할 수 없음 3가지 원칙 Quality (sensibleness, specificity, interestingness의 평균) sensibleness (doe..

Daily-Trend-Review 2023.03.07

2023/02/27: AI 반도체 기술, 효과적인 Large AI 모델 빌딩하기 등

1.대한민국 초거대 AI 시대를 열어가기 위한 AI 반도체 기술(2/10) 이동수 이사 (네이버 클라우드 AI) 발표 전체적으로 AI 추론은 메모리 문제가 커질 것으로 전망함 삼성(메모리) + NAVER AI 반도체 공동개발 중 → HyperCLOVA에 최적화된 AI 반도체 솔루션 개발 ChatGPT 서비스의 문제 Sam Altman Said "Average is probably single-digits cents per chat" Transformer는 MM이 전부임 경량화 알고리즘이 중요함 GPT 계열의 특성 입력 처리 (Computation-intensive) 출력 처리 (Memory-intensive) Why? GPT는 Autoregressive LM 이기 때문임 The End of SRAM Sc..

Daily-Trend-Review 2023.02.27