파일:Llama loss tokens pigure.png 문서의 역사

차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요.
설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, m= 사소한 편집

2024년 4월 22일 (월)

  • 최신이전 16:032024년 4월 22일 (월) 16:03Gaon12 토론 기여 680 바이트 +680 Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프 [https://arxiv.org/abs/2302.13971 LLaMA: Open and Efficient Foundation Language Models] 논문 중 일부<ref name="touvron2023llama">{{Cite journal | author = Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample | title = LLaMA: Open and Efficient Foundation Language Models | year = 2023 |...