파일:Llama loss tokens pigure.png

원본 파일(1,487 × 980 픽셀, 파일 크기: 142 KB, MIME 종류: image/png)

파일 설명[편집 / 원본 편집]

Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프

LLaMA: Open and Efficient Foundation Language Models 논문 중 일부[1]

저작권[편집 / 원본 편집]

이 파일은 저작자표시 4.0 국제 로 제공됩니다. by 조건이 있으므로, 출처를 꼭 작성하시길 바랍니다!
  • 만약 이 저작물이 CC-BY-4.0이 아니라면, 이 틀을 절대로 달지 마세요!

파일 역사

날짜/시간 링크를 클릭하면 해당 시간의 파일을 볼 수 있습니다.

날짜/시간섬네일크기사용자설명
현재2024년 4월 22일 (월) 16:032024년 4월 22일 (월) 16:03 판의 섬네일1,487 × 980 (142 KB)Gaon12 (토론 / 기여)Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프 [https://arxiv.org/abs/2302.13971 LLaMA: Open and Efficient Foundation Language Models] 논문 중 일부<ref name="touvron2023llama">{{Cite journal | author = Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample | title = LLaMA: Open and Efficient Foundation Language Models | year = 2023 |...

다음 문서 1개가 이 파일을 사용하고 있습니다:

The hash calculation took too much time or memory and stopped. 해시 계산에 너무 많은 시간이나 메모리가 소요되어 중단했습니다.

메타데이터

• 현재 페이지 URL 줄이기