역사 검색하기펼치기접기 끝 날짜:태그 필터:wikieditor (숨긴 태그)넘겨주기 대상 변경넘겨주기 제거대체됨되돌려진 기여새 넘겨주기수동 되돌리기시각 편집시각 편집: 전환됨일괄 되돌리기콘텐츠 모델 변경파일 올리기 마법사편집 취소 판 보이기 차이 선택: 비교하려는 판의 라디오 버튼을 선택한 다음 엔터나 아래의 버튼을 누르세요. 설명: (최신) = 최신 판과 비교, (이전) = 이전 판과 비교, m= 사소한 편집 2024년 4월 22일 (월) 최신이전 16:032024년 4월 22일 (월) 16:03 Gaon12 토론 기여 680 바이트 +680 Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프 [https://arxiv.org/abs/2302.13971 LLaMA: Open and Efficient Foundation Language Models] 논문 중 일부<ref name="touvron2023llama">{{Cite journal | author = Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample | title = LLaMA: Open and Efficient Foundation Language Models | year = 2023 |...