Gaon12의 사용자 기여

사용자 편집 수: 2,444건. 계정 생성일: 2018년 4월 29일 (일).
기여 검색펼치기접기
⧼contribs-top⧽
⧼contribs-date⧽
(최신 / 오래됨) (다음 250개  /  ) (20 / 50 / 100 / 250 / 500) 보기

2025년 6월 30일 (월)

2025년 6월 23일 (월)

2025년 6월 18일 (수)

2025년 6월 15일 (일)

  • 22:252025년 6월 15일 (일) 22:25 차이 역사 +3,383 압존법 구조적 개선: 어원 섹션 추가 예시를 더 체계적으로 정리 적용 범위를 가정/직장/군대로 분류 쇠퇴 과정을 시대순으로 상세히 기술 내용적 보강: 압존법의 언어학적 정의를 더 명확히 함 다양한 상황별 예시 추가 (사장-부장, 교수-선배 등) 쇠퇴 원인을 사회문화적 관점에서 분석 현재 각 영역별 사용 현황 정리 언어학적 의의와 관련 개념 추가 최신

2025년 6월 13일 (금)

2025년 6월 9일 (월)

2025년 6월 8일 (일)

2025년 5월 29일 (목)

2025년 5월 26일 (월)

2025년 5월 23일 (금)

2025년 5월 21일 (수)

2025년 5월 15일 (목)

2025년 5월 8일 (목)

2025년 5월 5일 (월)

2025년 5월 1일 (목)

2025년 4월 21일 (월)

2025년 4월 12일 (토)

2025년 4월 4일 (금)

2025년 4월 1일 (화)

2025년 3월 25일 (화)

2025년 3월 24일 (월)

2025년 3월 23일 (일)

2025년 3월 17일 (월)

2025년 3월 11일 (화)

2025년 3월 8일 (토)

2025년 3월 2일 (일)

2025년 2월 27일 (목)

2025년 2월 26일 (수)

2025년 2월 24일 (월)

2025년 2월 23일 (일)

2025년 2월 16일 (일)

2025년 2월 12일 (수)

2025년 2월 9일 (일)

2025년 2월 7일 (금)

2025년 2월 5일 (수)

2025년 2월 4일 (화)

2025년 2월 3일 (월)

2025년 1월 29일 (수)

2025년 1월 25일 (토)

2025년 1월 22일 (수)

2025년 1월 15일 (수)

2025년 1월 14일 (화)

2025년 1월 12일 (일)

2025년 1월 7일 (화)

2025년 1월 5일 (일)

2025년 1월 2일 (목)

2025년 1월 1일 (수)

2024년 12월 29일 (일)

2024년 12월 27일 (금)

2024년 12월 26일 (목)

2024년 12월 20일 (금)

2024년 12월 12일 (목)

2024년 12월 5일 (목)

2024년 11월 30일 (토)

2024년 11월 18일 (월)

2024년 11월 8일 (금)

2024년 11월 5일 (화)

2024년 10월 24일 (목)

2024년 10월 23일 (수)

2024년 10월 14일 (월)

2024년 10월 3일 (목)

2024년 9월 17일 (화)

2024년 9월 9일 (월)

2024년 8월 31일 (토)

2024년 8월 23일 (금)

2024년 8월 16일 (금)

2024년 8월 9일 (금)

2024년 7월 30일 (화)

2024년 7월 29일 (월)

2024년 7월 22일 (월)

2024년 7월 14일 (일)

2024년 7월 10일 (수)

2024년 7월 1일 (월)

2024년 6월 24일 (월)

2024년 6월 13일 (목)

2024년 5월 25일 (토)

2024년 5월 3일 (금)

2024년 4월 22일 (월)

  • 18:012024년 4월 22일 (월) 18:01 차이 역사 +19,163 N Llama 시작 최신
  • 17:052024년 4월 22일 (월) 17:05 차이 역사 +1,675 N 파일:Llama2 loss tokens pigure.png Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프 [https://arxiv.org/abs/2307.09288 Llama 2: Open Foundation and Fine-Tuned Chat Models] 논문 중 일부<ref name="llama2">{{Cite journal | author = Hugo Touvron and Louis Martin and Kevin Stone and Peter Albert and Amjad Almahairi and Yasmine Babaei and Nikolay Bashlykov and Soumya Batra and Prajjwal Bhargava and Shruti Bhosale and Dan Bikel and Lukas Blecher and Cristian Canton Ferrer and Moya Chen and Guillem Cucurull and David Esiobu and Jude Fernandes and... 최신
  • 16:032024년 4월 22일 (월) 16:03 차이 역사 +680 N 파일:Llama loss tokens pigure.png Llama 모델의 각 모델별 모델의 크기별 훈련 손실 감소 그래프 [https://arxiv.org/abs/2302.13971 LLaMA: Open and Efficient Foundation Language Models] 논문 중 일부<ref name="touvron2023llama">{{Cite journal | author = Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample | title = LLaMA: Open and Efficient Foundation Language Models | year = 2023 |... 최신

2024년 4월 12일 (금)

2024년 4월 3일 (수)

2024년 3월 31일 (일)

2024년 3월 22일 (금)

2024년 3월 12일 (화)

2024년 3월 6일 (수)

2024년 2월 28일 (수)

2024년 2월 16일 (금)

2024년 2월 6일 (화)

2024년 1월 23일 (화)

2024년 1월 15일 (월)

2024년 1월 7일 (일)

2023년 12월 23일 (토)

2023년 11월 30일 (목)

2023년 11월 11일 (토)

2023년 11월 6일 (월)

2023년 10월 15일 (일)

2023년 9월 26일 (화)

(최신 / 오래됨) (다음 250개  /  ) (20 / 50 / 100 / 250 / 500) 보기