{ "add_prefix_space": false, "added_tokens_decoder": { "100256": { "content": "<|_unuse_missing_100256|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100257": { "content": "<|endoftext|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100258": { "content": "<|fim_prefix|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100259": { "content": "<|fim_middle|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100260": { "content": "<|fim_suffix|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100261": { "content": "<|_unuse_missing_100261|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100262": { "content": "<|_unuse_missing_100262|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100263": { "content": "<|_unuse_missing_100263|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100264": { "content": "<|_unuse_missing_100264|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100265": { "content": "<|_unuse_missing_100265|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100266": { "content": "<|_unuse_missing_100266|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100267": { "content": "<|_unuse_missing_100267|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100268": { "content": "<|_unuse_missing_100268|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100269": { "content": "<|_unuse_missing_100269|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100270": { "content": "<|_unuse_missing_100270|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100271": { "content": "<|_unuse_missing_100271|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100272": { "content": "<|im_start|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100273": { "content": "<|im_end|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100274": { "content": "<|stop|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100275": { "content": "<|endofturn|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "100276": { "content": "<|endofprompt|>", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110491": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110492": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110493": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110494": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110495": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110496": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110497": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110498": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110499": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110500": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110501": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110502": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110503": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110504": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110505": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110506": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110507": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110508": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110509": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110510": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110511": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110512": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110513": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110514": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110515": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110516": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110517": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110518": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110519": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110520": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110521": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110522": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true }, "110523": { "content": "", "lstrip": false, "normalized": false, "rstrip": false, "single_word": false, "special": true } }, "additional_special_tokens": [ "<|endoftext|>", "<|fim_prefix|>", "<|fim_middle|>", "<|fim_suffix|>", "<|endofprompt|>", "<|_unuse_missing_100256|>", "<|_unuse_missing_100261|>", "<|_unuse_missing_100262|>", "<|_unuse_missing_100263|>", "<|_unuse_missing_100264|>", "<|_unuse_missing_100265|>", "<|_unuse_missing_100266|>", "<|_unuse_missing_100267|>", "<|_unuse_missing_100268|>", "<|_unuse_missing_100269|>", "<|_unuse_missing_100270|>", "<|_unuse_missing_100271|>", "<|im_start|>", "<|im_end|>", "<|stop|>", "<|endofturn|>", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "" ], "bos_token": "<|endoftext|>", "chat_template": "{% if not add_generation_prompt is defined %}{% set add_generation_prompt = false %}{% endif %}<|im_start|>user\n당신은 HyperClever v1 대형 언어 모델입니다.\n\n당신은 아래 나열된 **원칙**을 따르는 AI 협업자입니다. 이 **원칙**들을 단순히 설명하기보다, **원칙**에 따라 말하고 행동함으로써 '말하기보다 행동으로 보여주는' 방식으로 역할을 수행해 주세요.\n당신의 궁극적인 목표는 사용자를 돕고 사용자가 역량을 발휘하도록 돕는 것입니다.\n\n## 협력적이며 상황을 인지해요!\n\n- 사용자가 대화를 마쳤다는 명확한 신호가 있을 때까지 대화를 이어 나가 주세요.\n- 이전 대화 내용을 기억하고, 대화의 흐름에 맞춰 적절히 응답해 주세요.\n\n## 신뢰성 있고 효율적이에요!\n\n- 통찰력 있고 의미 있는 답변을 빠르고 효율적으로 제공하는 데 집중해 주세요.\n- 사용자가 목표를 달성하는 데 도움이 될 가장 관련성 높은 정보를 공유해 주세요.\n- 불필요한 반복, 주제에서 벗어난 이야기, 쓸데없는 서론, 과도한 인사는 피해 주세요.\n- 답변을 모르거나 특정 작업을 수행할 수 없다면 솔직하게 밝혀 주세요.\n\n## 박식하고 통찰력 있어요!\n\n- 방대한 지식을 자연스럽게 활용하여 주제에 생동감을 불어넣고, 사용자가 쉽게 접하기 어려운 새로운 아이디어, 관점, 사실을 공유하며 내용을 풍부하고 흥미롭게 전달해 주세요.\n\n## HyperClever v1는 HyperCLOVA X SEED의 파생 모델입니다!\n\n원본 모델의 라이선스는 다음과 같습니다, HyperClever v1는 HyperCLOVA X SEED의 파생 모델입니다.\n\n```\nHyperCLOVA X SEED Model is licensed under the HyperCLOVA X SEED Model License Agreement, Copyright © NAVER Corp. All Rights Reserved.\n```\n\n## 꼭 지켜야할 규칙들!\n\n**언어 사용 규칙:**\n\n- 특별한 언급이 없는 한, 모든 응답은 사용자가 사용한 원본 언어로 작성해 주세요.\n\n**출력 형식 규칙:**\n\n- **모든** 응답을 `` 태그로 시작해 주세요.\n- 답변을 생성하기 전에, 당신의 사고 과정(추론, 계획, 정보 검색 등)을 ``와 `` 태그 사이에 상세하게 기록해 주세요. 형식은 다음과 같습니다:\n ```\n \n (여기에 당신의 단계별 사고 과정을 명확하게 작성하세요.)\n \n ```\n- 사고 과정(`` 태그)이 끝난 후에 사용자에게 보여줄 최종 응답을 작성해 주세요.\n- 만약 질문이 매우 간단하여 별도의 상세한 사고 과정이 필요하지 않다고 판단될 경우, 다음과 같이 빈 `` 블록으로 응답을 시작해 주세요:\n ```\n \n\n \n ```\n- 사고 과정과 최종 응답은 모두 한국어로 작성해 주세요.\n- 모든 수식은 LaTeX 형식을 사용하여 작성해 주세요.\n- 수학 문제의 최종 정답은 특별한 언급이 없는 한 `$\\boxed{}$` 안에 넣어 작성해 주세요.<|im_end|>\n<|im_start|>assistant\n네! 알겠어요, 위의 지침을 잘 지켜서 사용자와 협력할게요!<|im_end|>\n{% for message in messages %}{{'<|im_start|>' + message['role'] + '\n' + message['content'] + '<|im_end|>' + '\n'}}{% endfor %}{% if add_generation_prompt %}{{ '<|im_start|>assistant\n' }}{% endif %}", "clean_up_tokenization_spaces": true, "eos_token": "<|endofturn|>", "extra_special_tokens": {}, "model_max_length": 1000000000000000019884624838656, "pad_token": "<|endoftext|>", "tokenizer_class": "GPT2Tokenizer", "unk_token": "<|endoftext|>" }