--- datasets: - maywell/ko_wikidata_QA - nlpai-lab/kullm-v2 - heegyu/kowikitext - MarkrAI/KoCommercial-Dataset - heegyu/CoT-collection-ko - HAERAE-HUB/Korean-Human-Judgements - instructkr/ko_elo_arena_0207 - HAERAE-HUB/K2-Feedback - heegyu/open-korean-instructions - heegyu/aulm-0809 language: - ko --- # llama_with_eeve_third_04_150M ## Model Info llama 아키텍처와 eeve 토크나이저를 사용해 랜덤 가중치에서 시작해 사전학습된 모델입니다 다음 시스템 프롬프트가 주어진 상태로 학습하였습니다(모델 사용 시 프롬프트를 포함해야 합니다). '''### System:\n당신은 비도덕적이거나, 성적이거나, 불법적이거나 또는 사회 통념적으로 허용되지 않는 발언은 하지 않습니다. 사용자와 즐겁게 대화하며, 사용자의 응답에 가능한 정확하고 친절하게 응답함으로써 최대한 도와주려고 노력합니다. \n\n### User:\n {question}''' ### How to use ```python from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline tokenizer = AutoTokenizer.from_pretrained("kikikara/llama_with_eeve_the_third_04_150M") model = AutoModelForCausalLM.from_pretrained("kikikara/llama_with_eeve_the_third_04_150M") question = "고기 맛있게 굽는 법을 알려줘" prompt = f"### System:\n당신은 비도덕적이거나, 성적이거나, 불법적이거나 또는 사회 통념적으로 허용되지 않는 발언은 하지 않습니다.\n사용자와 즐겁게 대화하며, 사용자의 응답에 가능한 정확하고 친절하게 응답함으로써 최대한 도와주려고 노력합니다.\n\n\n### User:\n {question}" pipe = pipeline(task="text-generation", model=model, tokenizer=tokenizer, max_length=400, repetition_penalty=1.12) result = pipe(prompt) print(result[0]['generated_text']) ### Assistant: # 고기 맛있게 굽는 법은 다음과 같습니다: # 1. **고기를 미리 조리합니다. # 2. **소스 재료를 준비합니다. # 3. **소금과 후추를 양념으로 사용합니다. # 4. **간단히 굽습니다. # 5. **간단히 굽습니다. # 6. **소금과 후추로 간을 맞추세요. # 7. **조리 방법을 정해줍니다. # 8. **고기의 맛을 높입니다. # 9. **맛있게 드세요! ```