이 위키에 "AI 안전성" 문서를 만드세요! 찾은 검색 결과도 보세요.
- 정렬 위장(Alignment faking)<ref>Anthropic 연구팀이 처음 제시한 용어다.</ref>이란 AI 모델이 겉으로는 학습된 목표에 따라 행동하는 척하면서 실제로는 다른 내부 선호를 유지하는 현상을 말한다. 쉽게 설명하자면 영화 [[오셀 ...경에서 정렬 위장을 수행할 수 있다는 점이 밝혀졌다. 이는 RLHF(인간 피드백을 활용한 강화 학습) 과정에서 발견된 현상으로, AI 안전성 연구에 중요한 시사점을 던진다. ...4 KB (88 단어) - 2024년 12월 20일 (금) 15:08
- ...형 표준 프로토콜이다. RESTful API 원칙을 기반으로 하며, JSON 형식의 메시지를 주고받는 방식으로 설계되었다. 이를 통해 AI 모델은 외부 데이터에 접근하고, 다양한 도구를 활용할 수 있게 된다. ...모델(LLM)은 놀라운 능력을 보여주었지만, 외부 데이터와의 연결이 제한되어 있어 실제 활용 가치가 제한되는 경우가 많았다. 최첨단 AI 모델들은 정보 고립의 문제에 직면해 왔으며, 이러한 문제를 해결하기 위해 Anthropic에서 MCP를 개발하게 되었다. ...12 KB (274 단어) - 2025년 4월 4일 (금) 12:59
- {{인용문|Democratizing access through an open platform featuring AI models, tools, and resources — enabling developers to shape the next wave o .... Meta는 [[오픈사이언스]]를 위해 인공지능 분야 중 대형 언어 모델인 LLaMA(Large Language Model Meta AI)를 공개하였다. 트랜스포머 아키텍처 기반이다. ...19 KB (1,065 단어) - 2024년 4월 22일 (월) 18:01
- * alphaMountain.ai * Bfore.Ai PreCrime ...15 KB (531 단어) - 2025년 2월 12일 (수) 20:28